Responsabilidade civil decorrente de acidentes com robôs (18.02.2021)
A sociedade 4.0 já é uma realidade há um bom tempo. Agora, alguns dizem que estamos entrando na sociedade 5.0, com a qual acompanha a Advocacia 5.0.
Essa sociedade é caracterizada pela alta conectividade, tornando muitas relações automatizadas, desempenhadas por softwares com inteligência artificial (ou os chamados “robôs”), que são máquinas autônomas.
Tais sistemas têm um processo chamado de Machine Learning ou Deep learning. Nada mais é que a capacidade de configurar a máquina para que ela própria desenvolva sua aprendizagem.
Há quem diga que existe a possibilidade da inteligência artificial ultrapassar a inteligência humana, o que eu particularmente duvido.
O fato é que, com a crescente ampliação do uso desses robôs em atividades rotineiras - desde a limpeza de ambientes até a automação de direção dos carros - , a sociedade começa a se preocupar com a responsabilidade civil pelos danos causados por estes autômatos.
Quem não se lembra dos acidentes com os carros da Tesla?
Assim, as perguntas que se fazem são: Quem seria de fato o responsável? O criador do programa, a pessoa que encomendou o programa, o usuário, o treinador ou o próprio robô?
Há inúmeras possibilidades que podem surgir a depender das circunstâncias peculiares do caso.
O grande problema é que, hoje em dia, a responsabilidade pressupõe a personalidade civil. Isto é só pode ser responsabilizado os sujeitos que tem personalidade civil (atualmente, as pessoas naturais e pessoas jurídicas).
Isto é, não há como imputar a responsabilidade ao robô, pois o ordenamento jurídico não lhe confere personalidade.
Discute-se, principalmente na comunidade europeia, sobre o desenvolvimento da personalidade eletrônica de robôs ou a e-personality.
Apesar de os robôs terem certo grau de autonomia, a e-personality ou personalidade eletrônica ainda não tem existência no Brasil e não há como se imputar a responsabilidade dos danos aos robôs.
Portanto, segundo alguns autores, é preciso verificar o grau de participação de cada um dos agentes na cadeia de fatos que ocasionou o dano. Ou seja, é preciso ver em que medida o fabricante, o proprietário, o usuário, o treinador ou o programador do software contribuiu ou foi negligente para que houvesse o resultado danoso.
Vale ressaltar que, se em face do empresário seria possível aplicar a teoria do risco, o mesmo não ocorre quanto ao programador, já que este só poderia ser responsabilizado subjetivamente (por ser profissional liberal), ou seja, quando comprovada a ocorrência de falha na programação ou que havia previsibilidade quanto à conduta lesiva (ainda que não programada). A não ser que o programador esteja vinculado a alguma sociedade empresária.
Também poderia se fazer um paralelo na responsabilidade por ato de terceiro (assim como o proprietário do animal responde pelos danos causados por ele, o proprietário do robô também). Nada mais é que a chamada responsabilidade vicária, que imputa ao proprietário ou usuário um dever de vigilância do robô.
Por outro lado, se defende que quanto maior a capacidade de aprendizagem, maior a responsabilidade do desenvolvedor ou do treinador.
Deve se considerar, ainda, dois pontos:
- que há resultados não previstos pelo fabricante ou desenvolvedor, decorrentes da própria auto-aprendizagem da máquina. É o questionamento da capacidade do criador controlar a criatura. Enquadramento como defeito do produto, sob a ótica do CDC. Mas existe uma dificuldade que reside justamente na linha tênue entre defeito anterior ou defeito surgido com a auto-aprendizagem.
- Há ainda robôs que possuem código aberto para que os usuários possam definir as programações.
Tais questões dificultam ainda mais a investigação de quem seria o responsável pelo dano ou acidente causado.
Por isso que, na Europa, já se discutiu que os criadores ou proprietários de robôs façam uma subscrição de um seguro obrigatório (semelhante ao atual DPVAT aqui no Brasil) para cobrir os danos que vierem a ser causados pelos seus robôs, sugerindo, ainda, que esse regime de seguros seja complementado por um fundo de compensação.
Diante disso, será necessário desenvolver um sistema diferenciado para tratar das responsabilidades dos vários e diversos agentes que participaram direta ou indiretamente do dano causado pela máquina, levando-se em consideração sua participação na cadeia causal, o tipo de tecnologia envolvida e seu grau de autonomia e o conhecimento científico da época.
Bibliografia
ALBIANI, Christine Albiani. Responsabilidade Civil e Inteligência artificial: Quem responde pelos danos causados por robôs inteligentes? In: https://itsrio.org/wp-content/uploads/2019/03/Christine-Albiani.pdf . Acesso 16.02.2021.
TEFFÉ, Chiara Spadaccini de. Quem responde pelos danos causados pela IA? JOTA, 22/10/2017. Disponível em: https://www.jota.info/opiniao-eanalise/artigos/quem-responde-pelos-danos-causados-pela-ia-24102017 . Acesso em 14.02.2021.