Carros Autônomos e Responsabilidade Civil

Tempo de leitura: 16 minutos

O modo como a Inteligência Artificial (AI) “pensa” é um dos problemas que os pesquisadores ainda não conseguem resolver. É o que é conhecido como o fenômeno da caixa preta. Por enquanto, os sistemas de inteligência artificial funcionam sendo alimentados com massas de dados por operadores humanos. Nesse contexto, a inteligência artificial pode cometer erros e até se tornar criminosa, tendo em vista que está cada vez mais entrando em contato direto com as pessoas e acidentes ocorrem com certa regularidade. A exemplo, pode-se citar, um episódio ocorrido em 2015, onde um robô esmagou um trabalhador até a morte em uma fábrica da Volks na Alemanha e várias pessoas já morreram em acidentes com carros autônomos. Sistemas autônomos estão se tornando mais independentes e entrando cada vez mais em diversas esferas de nossas vidas. Isso levanta questões legais, como quem será o culpado nesses casos.

Os estudiosos do direito têm ponderado quando e como poderiam punir máquinas que viessem a causar danos. Até o presente momento, não foi esclarecido de quem será a responsabilidade caso um robô cometa um ato lesivo e devendo ser observado que a inteligência artificial ainda não se encontra tão avançada para que possa tomar decisões independentes, por conta própria e, por isso, as máquinas não podem ser responsabilizadas por suas ações.

Nas pesquisas desenvolvidas sobre privacidade de dados e problemas atuais relacionados a veículos autônomos e robôs industriais, que incluem proteção de dados e questões de responsabilidade, se um sistema autônomo provoca um acidente, não é a máquina, mas sempre as pessoas responsáveis que responderão, como o programador que escreveu o código impreciso, o fabricante que cometeu um erro de produção ou talvez o usuário que não operou a máquina corretamente. Caberá à justiça decidir em cada caso concreto se ocorreu falha de alguém ou não. Todavia, tudo isso se torna mais difícil com a crescente complexidade dos sistemas, e mesmo quando analisado com cuidado, em alguns casos é impossível descobrir onde houve o erro. Não sendo possível identificar qualquer parte culpada, ninguém poderá ser punido. É semelhante a outras tecnologias, como sistemas de tráfego rodoviário ou estações de energia atômica. Estes são considerados tão úteis que aceita-se os perigos potenciais que eles trazem consigo.

No caso dos veículos autônomos que, em geral, prescindem de uma postura ativa do motorista ou mesmo sua ausência, com controle completamente automatizado sendo capazes de circularem em rodovias e ruas por meio de softwares, os questionamentos relativos aos riscos e à possível ocorrência de acidentes geram bastantes dúvidas quanto ao seu tratamento jurídico dispensado à responsabilização tendo em vista que a legislação tenta conjugar a facilitação da adoção dessas máquinas com aspectos ligados à segurança que envolvem questões de natureza ética juntamente com as novas tecnologias que visam à automatização do trânsito e infraestruturas para a construção de cidades inteligentes.

Para descobrir como nossa sociedade lidaria com essas questões, estão sendo desenvolvidos estudos nos quais os sujeitos de teste sem nenhum conhecimento legal especializado precisam decidir quem é culpado em vários casos exemplares: a pessoa, o sistema autônomo ou ambos. O grau de autonomia da máquina é dividido em cinco níveis, desde o suporte menor até o controle completo, quando o ser humano não pode mais intervir, como é o caso do carro autônomo.

Há posicionamentos no sentido de que os fabricantes de robótica devem estar imunes a certas teorias de responsabilidade civil – especialmente aquelas baseadas na gama de funcionalidades de um robô. Em consulta a alguns roboticistas ficou claro que construir robôs seguros é uma prioridade máxima, trabalhando em uma abordagem “centrada no ser humano” para a robótica, construindo sensores especiais, motores e materiais que diminuem o risco de lesão ativa ou passiva. No entanto, é improvável que um robô completamente infalível seja possível. Alguma pessoa ou propriedade inevitavelmente será prejudicada, devido a um design imperfeito, ou à negligência ou malícia de uma pessoa exercendo controle sobre um robô.

A responsabilidade por danos causados por uma máquina será de difícil de solução, já que o seu controle varia de uma teleoperação relativamente direta até uma automação quase completa. Os robôs são feitos de estruturas, sensores, motores e outros equipamentos, é claro, mas seu comportamento é geralmente regido por softwares complexos. Tanto o hardware como o software podem ser modificados – o software robótico de código aberto pode ter centenas de autores. Está longe de ser claro como os conceitos padrão de responsabilidade civil, como previsibilidade, uso indevido do produto, defeito de projeto, intencionalidade e causa próxima.

Os robôs florescem em certos contextos – exploração espacial, campo de batalha, fábrica, – mas nestes contextos possuem ampla imunidade a acidentes envolvendo as armas que construíram, bem como lesões no local de trabalho tendem a ser compensadas através de esquemas de compensação dos trabalhadores, no entanto, nenhuma proteção desse tipo funciona em casa ou na rua. Também não podemos lidar com a responsabilidade do robô da maneira como lidamos com a responsabilidade pelo software de consumo, que também é outra área complexa. Com o software, permitimos que os desenvolvedores se isentem de responsabilidade (ou “garantia para qualquer propósito específico”). Mas, uma coisa é não conseguir processar a Microsoft porque o Word ou o Windows travaram e perderam um documento; outra coisa é não ser capaz de processar um fabricante de robótica porque seu produto colidiu com um objeto ou uma pessoa.

Então, as questões que se colocam é o que deve ser feito ou como é possível preservar os incentivos não apenas para construir robôs, mas também para torná-los tão versáteis quanto possível? Uma possível argumentação é que deve-se igualmente imunizar os fabricantes de robótica para muitos dos usos a que seus produtos são colocados. Os fabricantes de robótica não podem ser nomeados como réus toda que houver uma falha da máquina. Deve-se, assim, considerar imunidade para danos atribuíveis a recursos de segurança. São esses tipos de imunidade inicial que acredita-se que a legislação deveria abordar.

É evidente que a lei de responsabilidade civil tem um papel a desempenhar, assim como o seguro, os padrões da indústria e outras forças reguladoras. O litígio gera informações de segurança do produto com mais eficiência do que os órgãos administrativos, e a ameaça de ação judicial (entre muitas outras coisas) ajudam a manter a segurança nas mentes dos projetistas. Mas não se pode permitir que os fabricantes de robótica existentes e prospectivos sejam levados a tribunal por todas as formas como os consumidores os utilizarão. Ao pensar sobre a responsabilidade por robôs autônomos, deve-se considerar os danos causados pelos seres humanos quando empreendemos a atividade em questão: quanto ao carro autônomo, seu desempenho de direção será superior ao de humanos e, sabemos que esses veículos inteligentes matam menos que os motoristas, apesar de muitos autores apontarem a existência do “risco da autonomia” , que diz respeito ao risco inerente à implementação e uso de sistemas autônomos.

E apesar da dificuldade envolvida no tema sobre a responsabilização, isso não significa que a parte lesada não possa requerer seus direitos em juízo. Para que os humanos sejam indenizados após um acidente com um robô, a responsabilidade civil deve ser regulada com clareza. Pesquisadores vêm discutindo se os robôs devem ter seu próprio status legal: o das chamadas pessoas eletrônicas, “e-people”. O Parlamento Europeu já debateu isto. Uma e-pessoa seria comparável a uma pessoa jurídica. Ainda não está claro como essa construção seria. Uma possibilidade é que os fabricantes, proprietários e operadores de um robô sejam todos obrigados a depositar uma quantia em dinheiro que seria perdida no caso de causar danos. Mas pesquisadores da robótica escreveram uma carta aberta à UE para expressar sua oposição. Eles acreditam que criar e-people seria prematuro, dado o status atual da inteligência artificial, cujas capacidades são superestimadas. Mas eles provavelmente também temem que tal disposição legal sirva para frear a inovação.

Ainda em 2016, foi aprovada pelas Nações Unidas uma alteração na Convenção de Viena sobre Trânsito Viário, tratado de 1968 que estabelece leis internacionais nas estradas, com o objetivo de permitir a circulação de carros autônomos. Antes a normativa estipulava que a condução tinha de ser feita por alguém “com as duas mãos ao volante” com a obrigação de “manter o controle do veículo em todas as circunstâncias”, com a mudança passa-se a permitir carros autônomos nas estradas, desde que possam ser controlados e desativados por um condutor caso necessário.

Nesse sentido, a Alemanha regulamentou o uso de carros autônomos em seu território, tornando-se um dos primeiros países a elaborarem uma legislação sobre a matéria, para tanto é preciso ter alguém em seu interior, sem a necessidade de estar atento ou com as mãos na direção, mas que seja capaz de assumir o controle do volante caso seja necessário. Na hipótese de acidentes, esse ocupante será responsabilizado, salvo prova em contrário. A legislação ainda prevê a existência de uma caixa preta no veículo para detectar a origem de possíveis problemas se oriundos de erro humano, da tecnologia de condução autônoma, ou do próprio fabricante do automóvel, estando prevista uma reavaliação em 2019, para considerar, nomeadamente, uma maior responsabilidade do fabricante em caso de acidente durante o modo automático.

Seguindo nessa mesma direção, podemos citar a Finlândia, Suécia, Reino Unido, Estados Unidos, com destaque para a Coreia do Sul, que construiu uma cidade para testes de carros autônomos e o Japão que até as Olimpíadas de 2020, prevê que veículos autônomos estejam operando livremente em Tóquio.

Mas apesar dos avanços tecnológicos, há registros de alguns acidentes envolvendo veículos autônomos e pedestres. O primeiro acidente com uma vítima fatal ocorreu nos Estados Unidos, tratava-se de um carro testado pela Uber e onde o motorista “reserva” não interveio na situação de emergência. Outras empresas, como a Volvo, Apple, Honda e Aymo realizam testes com carros conduzidos parcial ou completamente por sistemas de inteligência artificial, reforçando a necessidade de uma legislação que preveja a responsabilização em caso de acidentes.

As legislações existentes, a exemplo da Alemanha e da Califórnia, adotam a responsabilidade subjetiva, dispondo sobre deveres de conduta dos indivíduos envolvidos no desenvolvimento e na operação desses carros, para os chamados motoristas “reserva” e para as empresas fabricantes, cujo descumprimento poderia, teoricamente, fundamentar sua responsabilização. Insta mencionar que a lei na Califórnia já autoriza a circulação de carros autônomos sem condutor ao volante. De outro lado, temos a legislação do Arizona, onde ocorreu o citado acidente, na qual é exigida apenas uma licença veicular comum das empresas para circular com os carros autônomos. No que tange à responsabilidade objetiva, ainda não há uma previsão nesse sentido.

No Brasil, a questão sobre apuração da responsabilidade civil sobre acidentes ocorridos com veículos autônomos deverá considerar, sobretudo, a questão do nível de automação da máquina, para determinar se trata-se da modalidade objetiva ou subjetiva.

Sobre o tema, convém mencionar alguns aspectos apontados no Regulamento do Parlamento Europeu, de 2017 sobre a adoção dos carros autônomos:

Considera que a transição para veículos autônomos terá impacto nos seguintes aspectos: responsabilidade civil (imputabilidade e seguros), segurança rodoviária, todos os temas ligados ao ambiente (por exemplo, eficiência energética, utilização de tecnologias e fontes de energias renováveis), questões relacionadas com a informação (acesso aos dados, proteção dos dados e da privacidade e partilha dos dados), questões relacionadas com as infraestruturas de TIC (por exemplo, a densidade elevada de comunicações eficientes e fiáveis) e com o emprego (por exemplo, a criação e a perda de postos de trabalho, a formação dos condutores de veículos pesados de mercadorias com vista à utilização de veículos automatizados); salienta que serão necessários investimentos substanciais nas infraestruturas rodoviárias, energéticas e das TIC; insta a Comissão a ter em consideração os aspetos acima referidos nos seus trabalhos sobre veículos autônomos;

[…] Considerando que, quanto mais autônomos forem os robôs, menos poderão ser encarados como simples instrumentos nas mãos de outros intervenientes (como o fabricante, o operador, o proprietário, o utilizador etc.); considerando que, por sua vez, isto coloca a questão de saber se as normas ordinárias em matéria de responsabilidade são suficientes ou se serão necessários novos princípios e normas para clarificar a responsabilidade jurídica de vários intervenientes no que respeita à responsabilidade por atos e omissões dos robôs […];

Ao fim, Salientamos alguns pontos que devem ser observados:

  • Preocupação com direitos fundamentais não deve ser uma tarefa apenas de profissionais do Direito, mas também de programadores. A noção de que a expertise técnica para o desenvolvimento de IA pode prescindir de qualquer preocupação com direitos fundamentais apenas asseverará os aspectos negativos da tecnologia. Programadores precisam cada vez mais compreender que, ao lidar com dados pessoais, um programa pode gerar resultados discriminatórios, que reforçam a exclusão social e o acesso às oportunidades trazidas pela própria tecnologia. Nesse sentido, a retórica de que algoritmos seriam um puro exercício matemático de programação falha em perceber que sempre existe alguém que progama, de alguma forma e com algum propósito. Perguntar sempre quem, como e para que existe uma inteligência artificial ajuda a entender o papel do Direito para evitar que robôs venham a proliferar uma visão de mundo particular e valores não inclusivos.
  • Diferentes setores demandarão diferentes respostas. Qualquer tentativa de consolidar um conceito abrangente de inteligência artificial esconde o fato de que a sua implementação é sempre distribuída e distinta de acordo com a sua área de aplicação. Em setores regulados é esperado que as implementações de IA causem o efeito habitual: proibições, bloqueios e suspensões serão editadas até que, paulatinamente, a regulação seja, quando necessário, alterada para dar conta das inovações tecnológicas. De qualquer forma, é importante ter em mente que a aplicação de IA na área da saúde trará uma regulação diferente daquela que precisará ser promovida, por exemplo, no setor de energia elétrica.
  • Diferentes países, diferentes regulações. A questão da jurisdição, marcante nos debates sobre governança da Internet, é replicada na discussão sobre o futuro da inteligência artificial. Com cada país ou região traçando suas estratégias regulatórias haverá uma natural disputa sobre qual seria a melhor alternativa. Ao mesmo tempo, regulações contraditórias farão com que empresas que atuem globalmente tenham que adequar as suas aplicações de IA à legislação local. Nesse sentido, temas como transferência internacional de dados e efeitos extra-territoriais de decisões judiciais nacionais estarão mais uma vez em pauta.
  • O Direito será codificado. O desenvolvimento de inteligência artificial representa uma janela para o futuro do Direito. Máquinas autônomas que contratam, que tomam as mais diversas decisões, impulsionam uma transformação essencial sobre a forma pela qual se pensa o Direito. Tome-se o exemplo da boa-fé, que na sua versão subjetiva é caracterizada como um estado de consciência do agente sobre dada situação. Sabia ele, ou não, do vício que macula a posse? Na seara contratual, a boa-fé tem sido progressivamente objetivada, deixando de importar em uma viagem psicológica para afirmar a conformação de deveres objetivos de conduta que as partes devem guardar. A objetivação desses deveres, que nem mesmo precisam estar previstos no contrato, representa o primeiro passo em direção à sua automação. Deveres contratuais, como o respeito à boa-fé objetiva (dever de informar, de cuidado, de sigilo) poderão ser programados.

 

Fontes:
<http://cyberlaw.stanford.edu/blog/2009/11/robotics-law-liability-personal-robots>.
<https://hellofuture.orange.com/en/interactive/artificial-intelligence-hopes-fears-humankind/>.
<https://portaldomagistrado.com.br/2017/09/26/ia-transformara-o-direito-mas-o-direito-transformara-ia-jota/>.
Artificial Intelligence and your business: A guide for navigating the legal, policy, commercial, and strategic challenges ahead. April 2018. PDF.
<https://www.conpedi.org.br/publicacoes/0ds65m46/1f77gz03/DpC3b5cOOm948B42.pdf>.
<http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//TEXT+REPORT+A8-2017-0005+0+DOC+XML+V0//PT>.
<https://www.publico.pt/2017/05/12/tecnologia/noticia/alemanha-aprova-lei-para-a-circulacao-de-carros-autonomos-1771941>.
<https://www.publico.pt/2018/02/27/tecnologia/noticia/california-autoriza-circulacao-de-carros-autonomos-sem-condutor-ao-volante-1804631>.

 

 

Gostou? Deixe o seu Comentário...