No último dia 28 de setembro foi apresentada pela Comissão Europeia uma Proposta de Diretiva do Parlamento Europeu e do Conselho Europeu que busca adaptar as regras de Responsabilidade Civil extracontratual a casos de danos envolvendo Inteligência Artificial. O presente artigo se propõe, em seu reduzido escopo, a lançar breves e sumaríssimas impressões sobre o documento, sem qualquer pretensão de esgotá-lo, já que sequer houve tempo hábil para destrinchar com maior aprofundamento seus complexos e multifacetados meandros, o que se reserva para um momento posterior.
A proposta, que foi apelidada de Diretiva sobre a Responsabilidade Civil da IA (AI Liability Directive), parte do dado concreto de que vários países da União Europeia estão gestando legislações específicas para a temática. Diante desse cenário, e buscando evitar a fragmentariedade das soluções legislativas dentro do bloco, a Comissão sugere a criação de um ferramental que poderá servir de base para os aplicadores do Direito e para as vítimas diante de casos de danos envolvendo IA. A Diretiva, caso aprovada, se integrará ao complexo quebra-cabeças regulatório da Inteligência Artificial proposto pela União Europeia e que já conta, por exemplo, com a Resolução do Parlamento Europeu, de 20 de outubro de 2020, que contém recomendações à Comissão sobre o regime de responsabilidade civil aplicável à inteligência artificial [2020/2014(INL)].
Em seu relatório, a Comissão aponta que se corre atualmente o risco de insegurança jurídica, já que a ausência de um corpo comum de regras poderia fazer com que magistrados aplicassem regras internas de forma ad hoc para garantir a justa reparação das vítimas, o que acabaria gerando uma realidade custosa para os atores do mercado, em especial para as pequenas e médias empresas (medium-sized enterprises - SMEs). Regras claras também criariam um reforço na confiança na utilização da IA, bem como incentivos econômicos para que operadores agissem em conformidade com regras de segurança, sendo este um contributo para se prevenir a ocorrência de danos, a ressaltar a função precaucional da Responsabilidade Civil.
Além disso, o relatório aponta para a necessidade de se garantir que as vítimas obtenham o mesmo grau de proteção que já obtêm para danos causados por produtos em geral que não se valham de IA. E isso passaria pela criação de um ferramental a ser empregado pelas vítimas e pelos aplicadores do Direito para contornar eventuais problemas de assimetria informacional e técnica, especialmente na produção de provas. Essa necessidade surge diante da constatação do chamado “efeito black box”, que dificulta a investigação a apuração de atos praticados por IA, e, por consequência, acaba tornando a prova da culpa e da causalidade verdadeiramente problemáticas para as vítimas. Afinal, se nem mesmo programadores por vezes conseguem descobrir como determinada IA agiu, não há como se pretender que as vítimas alcancem tal desiderato.
É importante compreender que a proposta de Diretiva tem escopo de aplicação bastante limitado: serviria apenas para aqueles casos em que as vítimas (ou quem se sub-rogue no seu direito), ingresse com ações judiciais baseadas em Responsabilidade Civil não contratual e de natureza subjetiva, reservando à Product Liability Directive, isto é, a Diretiva de Produtos Defeituosos (para a qual também se apresentou proposta de reforma contemplando a Inteligência Artificial) a disciplina destes casos, que em muito se assemelham às normas do Código de Defesa do Consumidor brasileiro, embora guardem diferenças substanciais. A Diretiva também não afetaria as regras em vigor que regulam as condições da responsabilidade no setor dos transportes nem as estabelecidas pelo Regulamento de Serviços Digitais, ou Digital Services Act (DSA).
Dentro deste âmbito restrito de aplicação, seriam assegurados às vítimas alguns direitos como solicitar em juízo que determinada pessoa (como, por exemplo, fornecedores e utilizadores) forneça elementos de prova sobre um sistema de IA de alto risco suspeito de ter causado dano, quando, por exemplo, tal pedido tenha sido anteriormente negado. Esse procedimento, a que se denomina disclosure of evidence, obedeceria a regras específicas de proporcionalidade e seria utilizado para facilitar a instrução de ações judiciais de indenização. O não atendimento a semelhante requisição judicial poderia acarretar o ônus da presunção de que o agente não agiu em conformidade a um dever de diligência pertinente. Inverte-se, assim, o ônus da prova aos agentes, que precisam reforçar a documentação relativa ao funcionamento dos sistemas de IA.
Além disso, inclui-se em dito ferramental (art. 4º, 1) a possibilidade de se afirmar presunção relativa de nexo de causalidade, caso estejam presentes três requisitos cumulativos, a saber: "(a) O demandante demonstrou ou o tribunal presumiu, nos termos do artigo 3.º, n.º 5, a existência de culpa do demandado, ou de uma pessoa por cujo comportamento o demandado é responsável, consistindo tal no incumprimento de um dever de diligência previsto no direito da União ou no direito nacional diretamente destinado a proteger contra o dano ocorrido; (b) Pode-se considerar que é razoavelmente provável, com base nas circunstâncias do caso, que o facto culposo influenciou o resultado produzido pelo sistema de IA ou a incapacidade do sistema de IA de produzir um resultado; (c) O demandante demonstrou que o resultado produzido pelo sistema de IA ou a incapacidade do sistema de IA de produzir um resultado deu origem ao dano."
Importante registrar, no entanto, que, em princípio, a menos que tenha havido presunção da culpa, os demandantes precisarão demonstrá-la para terem direito a eventual presunção do nexo de causalidade. Como se afirma em um dos considerandos da Proposta: "Essa culpa pode ser demonstrada, por exemplo, por incumprimento de um dever de diligência nos termos do Regulamento Inteligência Artificial ou de outras regras estabelecidas a nível da União, como as que regulam o uso da monitorização e da tomada de decisões automatizadas para o trabalho em plataformas digitais ou as que regulam o funcionamento de aeronaves não tripuladas. O tribunal também a pode presumir com base no incumprimento de uma decisão judicial de divulgação ou conservação de elementos de prova ordenada nos termos do artigo 3.º, n.º 5."1
O já referido artigo 4º também esmiuça essas regras gerais previstas no item “1”, notadamente para modular o disposto na alínea “a”, assegurando, por exemplo, em seu item "7", que: “[n]o caso de uma ação de indemnização contra um demandado que tenha utilizado o sistema de IA no âmbito de uma atividade pessoal e não profissional, a presunção estabelecida no n.º 1 só é aplicável se o demandado tiver interferido substancialmente nas condições de funcionamento do sistema de IA ou se o demandado tivesse a obrigação e a capacidade de determinar as condições de funcionamento do sistema de IA, mas não o tenha feito.” Tal norma tem importante aplicabilidade prática, pois se destina às situações envolvendo pessoas que utilizem IA de modo não profissional.
Ao longo de toda a Proposta, alude-se a normas da Proposta de Regulamento da Inteligência Artificial na União Europeia, o chamado AI Act. Nessa direção, a nova Proposta se utiliza, por exemplo, dos conceitos de IA de alto e baixo risco, determinando, por exemplo, que nos casos de IAs que representem risco elevado, poderia haver uma exceção à presunção de causalidade, caso o demandado venha a demonstrar que "estão razoavelmente acessíveis ao demandante elementos de prova e conhecimentos especializados suficientes para provar o nexo de causalidade."2 A ideia é de que esta possibilidade poderia vir a "incentivar os demandados a cumprirem as suas obrigações de divulgação, as medidas estabelecidas pelo Regulamento Inteligência Artificial para assegurar um elevado nível de transparência da IA ou os requisitos de documentação e registo."3
Por outro lado, nas hipóteses de sistemas de IA que não sejam de risco elevado, o artigo 4º, nº. 5 da Proposta busca estabelecer uma condição para que tal presunção de causalidade seja aplicada, de modo que esta dependeria "de uma determinação do tribunal em como é excessivamente difícil para o demandante provar o nexo de causalidade. Tal dificuldade deve ser apreciada à luz das características de determinados sistemas de IA, como a autonomia e a opacidade, que, na prática, tornam muito difícil explicar o funcionamento interno do sistema de IA, afetando negativamente a capacidade do demandante em provar o nexo de causalidade entre o facto culposo do demandado e o resultado da IA."4
Outrossim, é importante consignar, desde já, que a norma não ordena os sistemas internos de Responsabilidade Civil, nem cria hipóteses de imputação. No fundo, o escopo da Proposta está em fornecer um ferramental para as vítimas e para os aplicadores do Direito quando as legislações internas dos países integrantes da União Europeia previrem hipóteses específicas de responsabilidade civil baseada na culpa, diante do chamado "efeito black box" da IA, ao mesmo tempo em que estabelece regras de conformidade claras para os agentes, minimizando os efeitos da insegurança jurídica.
Finalmente, não se pode perder de vista que a Diretiva se destina a harmonizar as distintas realidades jurídicas dos países-membros da União Europeia, muitos dos quais contam com normas rígidas que dificultam a prova do dano e, por vezes, sequer apresentam cláusulas gerais de Responsabilidade Civil, ao contrário da realidade brasileira. Daí a importância de não se cair na tentação de sugerir a importação descuidada de inovações legislativas reservadas a cenários distintos, como já se advertiu em outra sede.5
Não há dúvidas de que a Proposta, fruto de intensos, longos e aprofundados debates, é instrumento verdadeiramente útil, especialmente porque tem como escopo claro a garantia de direitos fundamentais das vítimas, ao mesmo tempo em que compreende que é preciso assegurar regras claras, estimulando-se e premiando-se comportamentos diligentes e cooperativos em busca daquela que é, de fato, a mais importante das diretrizes da Responsabilidade Civil na atualidade: a prevenção dos danos.
__________
1 Disponível aqui. Acesso em 02 out. 2022.
2 Disponível aqui. Acesso em 02 out. 2022.
3 Disponível aqui. Acesso em 02 out. 2022.
4 Disponível aqui. Acesso em 02 out. 2022.
5 MEDON, Filipe. Inteligência Artificial e Responsabilidade Civil: autonomia, riscos e solidariedade. São Paulo: Juspodivm, 2. ed. Terceira edição a ser publicada no início de 2023.