Danos causados por inteligência artificial e a reparação integral posta à prova: por que o Substitutivo ao PL 21 de 2020 deve ser alterado urgentemente?
segunda-feira, 6 de setembro de 2021
Atualizado às 07:08
Após uma série de audiências públicas no Congresso, foi divulgado no último dia 01 de setembro de 2021 o substitutivo ao PL 21 de 2020, que estabelece fundamentos, princípios e diretrizes para o desenvolvimento e aplicação da inteligência artificial no Brasil, e dá outras providências. E, se por um lado, em linhas gerais o substitutivo inova positivamente ao buscar mais rigor técnico nas definições da IA, por outro lado, em matéria de responsabilidade civil, coloca em risco a garantia da reparação integral a partir de uma norma flagrantemente equivocada, atécnica e que beira a inconstitucionalidade. Trata-se do inciso VI do artigo 6º, que apresenta a seguinte redação:
Art. 6º Ao disciplinar a aplicação de inteligência artificial, o poder público deve observar as seguintes diretrizes:
VI - responsabilidade: normas sobre responsabilidade dos agentes que atuam na cadeia de desenvolvimento e operação de sistemas de inteligência artificial devem, salvo disposição em contrário, se pautar na responsabilidade subjetiva, levar em consideração a efetiva participação desses agentes, os danos específicos que se deseja evitar ou remediar, e como esses agentes podem demonstrar adequação às normas aplicáveis por meio de esforços razoáveis compatíveis com padrões internacionais e melhores práticas de mercado.
A norma se propõe a ser uma "diretriz" para a futura disciplina do poder público em relação à Inteligência Artificial. E ela não poderia ser mais infeliz, colocando o Brasil no caminho do retrocesso e do abismo em relação a tudo quanto se tem observado da experiência estrangeira, em especial da Europa e das suas mais recentes propostas de regulação da IA.
Como se verá, o erro crasso e irremediável da norma proposta está na priorização abstrata do regime de responsabilidade civil de natureza subjetiva para os danos causados por agentes que atuam na cadeia de desenvolvimento e operação de sistemas de Inteligência Artificial. Os parâmetros para avaliar o elemento subjetivo, isto é, a culpa de tais agentes, seriam, segundo a norma, (i) a efetiva participação desses agentes; (ii) os danos específicos que se deseja evitar ou remediar; e (iii) como esses agentes podem demonstrar adequação às normas aplicáveis por meio de esforços razoáveis compatíveis com padrões internacionais e melhores práticas de mercado.
Um primeiro questionamento salta aos olhos: quem são tais agentes? Como definir um sistema de imputação de responsabilidade sem definir quem são os sujeitos a quem tal dever de indenizar pode ser atribuído? Especialmente em matéria de Inteligência Artificial, trata-se de uma questão que não pode ser superada de maneira simples, já que para o funcionamento dessa tecnologia, normalmente é preciso contar com uma extensa e complexa cadeia de colaboradores: dos desenvolvedores, passando pelos programadores, pelos operadores e até mesmo por usuários. Quem é o destinatário da norma? Qual o conceito de desenvolvimento e operação?
A título comparativo, é essencial atentar para a resolução do Parlamento Europeu, de 20 de outubro de 2020, que contém recomendações à Comissão sobre o regime de Responsabilidade Civil aplicável à Inteligência Artificial (2020/2014(INL)). Em seu artigo 3º, define-se na alínea "e" como operador final ou de frontend, "qualquer pessoa singular ou coletiva que exerça um grau de controlo sobre um risco relacionado com a operação e o funcionamento do sistema de IA e que beneficie da sua operação." Por seu turno, a alínea "f" traz como operador incial ou de backend "qualquer pessoa singular ou coletiva que, de forma contínua, defina as características da tecnologia, forneça dados e preste serviços essenciais de apoio de backend e, por conseguinte, exerça igualmente algum controlo sobre o risco ligado à operação e ao funcionamento do sistema de IA."1
Como se pode perceber, a definição de operador perpassa dois elementos básicos: benefício e controle. A respeito deste último, a proposta de regulamento ainda traz a noção de controle na alínea "g":
qualquer ação de um operador que influencie a operação de um sistema de IA e, por conseguinte, a medida em que o operador expõe terceiros aos riscos potenciais associados à operação e ao funcionamento do sistema de IA; essas ações podem ter impacto na operação, determinando os dados introduzidos, os dados de saída ou os resultados, ou modificar funções ou processos específicos no sistema de IA; o grau em que esses aspetos da operação do sistema de IA são determinados pela ação depende do nível de influência que o operador tem sobre o risco ligado à operação e ao funcionamento do sistema de IA.2
A norma proposta pelo Substitutivo é silente, tanto em relação aos operadores, quanto ao que seria efetivamente o controle. Apresenta, portanto, uma primeira inconsistência: a ignorância quanto a complexidade dos sistemas de Inteligência Artificial.
A esse respeito, merece destaque o entendimento da professora espanhola Teresa Rodríguez De Las Heras Ballell, que alude didaticamente a cinco características distintivas da IA em relação a outras tecnologias, que explicariam a razão de tamanho impacto disruptivo nos regimes de Responsabilidade Civil. São elas: autonomia crescente, dependência de dados, complexidade, vulnerabilidade e opacidade. Os carros autônomos são um bom exemplo para ilustrar cada um desses traços peculiares que apartam a IA, por exemplo, de atividades igualmente perigosas, como as que envolvem energia nucelar.3
A autonomia crescente tem conexão direta com a imprevisibilidade das condutas dos sistemas de IA: capazes de se autoprogramar, eles podem surpreender até mesmo os seus programadores. Diante disso, um veículo autônomo poderia fazer manobras não esperadas e, com isto, causar danos.4
A dependência de dados, por outro lado, relaciona-se com o próprio treinamento da Inteligência Artificial nas técnicas de aprendizado de máquina. E um ponto crucial em relação aos veículos autônomos é que eventualmente pode ser necessário que haja uma atualização do software, além do fato de que a qualidade dos dados que servem de combustível para a máquina pode ser determinante para o seu bom ou mau funcionamento.5
A complexidade também é nítida: não apenas no design dos algoritmos, como também na sua operação, haja vista que diversos atores podem contribuir para o seu desempenho, que inclui, ainda, múltiplos componentes. Na hipótese dos veículos autônomos, basta imaginar que fabricante, usuário e possivelmente mecânicos especializados podem interferir na programação. As atualizações constantes no software também contribuem para que o veículo que sai de fábrica talvez seja um produto completamente distinto daquele que circula no mês seguinte. É como se os veículos autônomos, segundo Teresa Ballel, fossem organismos vivos, em constante evolução. Os impactos disso para a Responsabilidade Civil são significativos, sobretudo para fins de nexo de causalidade, já que eventual atualização no software pode acabar praticamente desnaturando o produto inicialmente posto em circulação. Quanto aos múltiplos componentes, a visualização é simples: é só pensar nos diversos mecanismos que fazem um carro autônomo funcionar.6
A professora da Universidade Carlos III de Madrid ainda alude à vulnerabilidade, que, nos carros autônomos é evidente: imagine-se, por exemplo, que um hacker invada o sistema autônomo de condução veicular e altere as configurações de reconhecimento por câmera, de modo que o carro passe a interpretar que um poste é uma pessoa. E, no contexto das smart cities, o que fazer se, por exemplo, o software que controla os sinais de trânsito for alvo de ciberataques criminosos? Os riscos são incalculáveis e de difícil dimensionamento.7
Finalmente, a opacidade dialoga a chamada "caixa-preta" dos algoritmos, que gera baixa transparência e explicabilidade limitada.8 Dito diversamente, a dificuldade em se auditar os caminhos tecnológicos percorridos por um sistema de Inteligência Artificial revela-se, por consequência, altamente tormentosa para a correta atribuição da Responsabilidade Civil.
Por tudo isso, já desde a primeira edição do livro "Inteligência Artificial e Responsabilidade Civil: autonomia, riscos e solidariedade",9 lançado pela editora Juspodivm em 2020 e que foi fruto de dissertação de Mestrado apresentada junto à Universidade do Estado do Rio de Janeiro (UERJ) em 2019, tem-se defendido que não há um só regime de responsabilidade civil aplicável aos danos causados por Inteligência Artificial, sendo, por isso, absolutamente incorreto priorizar abstratamente qualquer regime.
Em verdade, o maior erro que se pode cometer é procurar fornecer resposta única para a tormentosa indagação: "quem responde pelos danos causados pela Inteligência Artificial?" Isso porque, como em boa hora se tem afirmado na Europa, não pode haver um único regime, pois não há uma só IA. Necessário se faz, portanto, considerar, por exemplo, a tipologia e a autonomia em concreto da IA envolvida no dano. Uma mesma tipologia, como é o caso dos carros autônomos, pode ter diversos graus de autonomia em relação ao condutor humano. Significa dizer que eventualmente pode haver diferentes regimes aplicáveis dentro de uma única tipologia, que ainda depende de outras peculiaridade que podem surgir da dinâmica do acidente: havia obrigação da presença de condutor humano responsivo na retaguarda? O sistema de direção autônomo foi acionado fora de circunstâncias permitidas pelo fabricante? O usuário realizou todas as atualizações de segurança no software?
Além disso, há que se considerar que diversos também são os sujeitos envolvidos. Como também se tem afirmado na Europa e já se afirmava na referida obra publicada em 2020, há que se atentar para a legislação aplicável a cada pessoa natural ou jurídica que se relaciona ao dano. Está-se diante de relação de consumo? Atrai-se o Código de Defesa do Consumidor e seu regime de responsabilidade de natureza objetiva aos fornecedores pelo fato do produto. Está-se diante de relação empresarial, como é o caso da danos decorrentes da atuação de administradores que delegam decisões para mecanismos automatizados no seio de companhias? Aplica-se regime de natureza subjetiva, baseado no dever de diligência, como se tem defendido em doutrina especializada.10
O que não se pode fazer, sob nenhuma hipótese, é hierarquizar abstratamente um só regime de responsabilidade civil, sob pena de não se atentar para o risco em concreto gerado pela Inteligência Artificial causadora do dano, sem mencionar, ainda, a importância de se considerar o sujeito envolvido, já que como afirma Jack Balkin: "[n]ossas interações com robôs e sistemas de IA são interações com as pessoas que estão implementando essas novas tecnologias, mesmo quando nós não o percebemos".11 E é justamente esse status primacial da responsabilidade subjetiva o que o Substitutivo ao PL 21 de 2020 pretende inaugurar no Brasil.
Ainda que o inciso VI do artigo 6º seja uma norma que apenas lança diretrizes para orientar o poder público, o seu mero efeito simbólico já representa um retrocesso inquestionável para a imprescindível garantia da reparação integral das vítimas, que constitui, na atualidade, o epicentro de todo o sistema de responsabilidade civil. Limitar abstratamente tal reparação sem se atentar para as peculiaridades da tecnologia que se busca regular chega a beirar a inconstitucionalidade.
Importante mencionar, outrossim, que é inexplicável a urgência que tem se observado para aprovar um marco normativo tão abrangente para a regulação da Inteligência Artificial no Brasil quando, em verdade, a própria Estratégia Brasileira de IA vem sendo objeto de incontáveis ataques e objeções dada a sua timidez e incompletude.
Mesmo a União Europeia, que se propõe desde o final da última década a ser um marco referencial para a regulação da IA no mundo, não conta ainda com uma normativa aprovada, especialmente em termos de Responsabilidade Civil. Em meio a incontáveis debates e grupos de especialistas, entre avanços e retrocessos desde a famosa Resolução que trazia recomendações à Comissão de Direito Civil sobre Robótica (2015/2103(INL))12 publicada em 2017, ainda não se chegou a nenhuma conclusão definitiva.
A Resolução mais recente do Parlamento Europeu, que data de 20 de outubro de 2020 e que contém recomendações à Comissão sobre o regime de Responsabilidade Civil aplicável à Inteligência Artificial (2020/2014(INL)) trouxe, de plano, três importantes conclusões para o estudo do tema: (i) a desnecessidade de se realizar uma revisão completa das normas de responsabilidade civil existentes; (ii) o reconhecimento da importância de se analisar a tipologia da Inteligência Artificial para a definição do regime de responsabilidade civil aplicável, tendo em vista que IAs distintas implicam riscos distintos; e, por fim, (iii) a rejeição, pelo menos no presente momento, da criação de uma personalidade jurídica própria aos sistemas comandados por Inteligência Artificial.
Além disso, o documento acabou por sugerir a adoção no âmbito da União Europeia de um sistema tripartite, estabelecendo três regimes distintos, a saber: (i) regime de produtos defeituosos segundo a Diretiva 85/374/CEE; (ii) regime dual, estabelecido pelo documento, para os operadores de backend e frontend, a depender da tipologia da IA, isto é, se de alto ou baixo risco; e, subsidiariamente, (iii) regime de natureza subjetiva, com base nos ordenamentos nacionais, para terceiros/usuários.13 A responsabilidade contratual estaria inalterada.
É inquestionável, portanto, a falta de tecnicidade de uma norma que proponha abstratamente a adoção de qualquer regime de responsabilidade civil. Diante do exposto, a conclusão a que se pode chegar é no sentido de que a injustificável urgência na tramitação de semelhante proposta de regulação da Inteligência Artificial no Brasil pode trazer danos colaterais com repercussão imensurável, ainda que simbólica, a exemplo do que faz o Substitutivo ao PL 21 em relação à Responsabilidade Civil pelos danos causados pela Inteligência Artificial. Em suma, a grande verdade é que se for para ter uma norma ruim, melhor não ter norma alguma.
*Filipe Medon é doutorando e mestre em Direito Civil pela Universidade do Estado do Rio de Janeiro (UERJ). Professor Substituto de Direito Civil na UFRJ e de cursos de pós-graduação do Instituto New Law, PUC-Rio, CEPED-UERJ, EMERJ, ESA-OAB, CERS, FMP e do Curso Trevo. Membro da Comissão de Proteção de Dados e Privacidade da OAB/RJ, do Instituto Brasileiro de Estudos de Responsabilidade Civil (IBERC) e do Instituto Brasileiro de Direito de Família (IBDFAM). Pesquisador em Gustavo Tepedino Advogados. Advogado. Instagram: @filipe.medon.
__________
*O presente artigo contém trechos extraídos das seguintes obras da autoria do autor: MEDON, Filipe. Inteligência Artificial e Responsabilidade Civil: autonomia, riscos e solidariedade. Salvador: Juspodivm, 2020; MEDON, Filipe. Inteligência Artificial e Responsabilidade Civil: autonomia, riscos e solidariedade. Salvador: Juspodivm, 2021, 2. ed. (no prelo); MEDON, Filipe. Inteligência Artificial e Responsabilidade Civil: diálogos entre Europa e Brasil. In: PINHO, Anna Carolina (coord.). Discussões sobre Direito na Era Digital. Rio de Janeiro: GZ, 2021.
1 Resolução do Parlamento Europeu, de 20 de outubro de 2020, que contém recomendações à Comissão sobre o regime de responsabilidade civil aplicável à inteligência artificial (2020/2014(INL)). Disponível aqui. Acesso em 02 mar. 2021.
2 Resolução do Parlamento Europeu, de 20 de outubro de 2020, que contém recomendações à Comissão sobre o regime de responsabilidade civil aplicável à inteligência artificial (2020/2014(INL)). Disponível aqui. Acesso em 02 mar. 2021.
3 BALLELL, Teresa Rodríguez De Las Heras. Teresa La inteligencia artificial en clave jurídica. Propuesta de conceptualización y esbozo de los retos regulatorios. Una mirada europea. In: Revista de Ciencia de la Legislación, n. 8, outubro de 2020, Buenos Aires Universidad del Salvador.
4 BALLELL, Teresa Rodríguez De Las Heras. Teresa La inteligencia artificial en clave jurídica. Propuesta de conceptualización y esbozo de los retos regulatorios. Una mirada europea. In: Revista de Ciencia de la Legislación, n. 8, outubro de 2020, Buenos Aires Universidad del Salvador.
5 BALLELL, Teresa Rodríguez De Las Heras. Teresa La inteligencia artificial en clave jurídica. Propuesta de conceptualización y esbozo de los retos regulatorios. Una mirada europea. In: Revista de Ciencia de la Legislación, n. 8, outubro de 2020, Buenos Aires Universidad del Salvador.
6 "Las tecnologías emergentes, especialmente integradas en ecosistemas tecnológicos sofisticados, muestran un nivel considerable de complejidad. Tal complejidad se manifiesta en tres capas: complejidad de la lógica interna, pluralidad de participantes y fuentes que contribuyen al funcionamiento del sistema, y ecosistema de objetos conectados (sensores, actuadores, redes, softwares, oráculos, recolectores de datos y plataformas). Los algoritmos que conducen sistemas autónomos sofisticados tienen un alto nivel de complejidad em el diseño y en su operativa. Esto agrava la opacidad sobre el procesamiento interno del sistema autónomo, oculta los criterios relevantes que han guiado la decisión, y reduce la comprensibilidad de los resultados. La complejidad también se manifiesta externamente, en el diseño, la operativa y el funcionamiento del sistema en su conjunto. En estos ecosistemas, participan una pluralidad de actores: desarrolladores de software y de aplicaciones, diseñadores de algoritmos, proveedores de datos, fabricantes de sensores, operadores de sistemas, productores de cada dispositivo, parte o componente, proveedores de DLT y proveedores de servicios de monitorización. Además, también incrementa la complejidad la multiplicidad de partes, componentes, dispositivos y sistemas que integran un ecosistema tecnológico (un automóvil autónomo, un sofisticado robot quirúrgico, un sistema de domótica)." (BALLELL, Teresa Rodríguez De Las Heras. Teresa La inteligencia artificial en clave jurídica. Propuesta de conceptualización y esbozo de los retos regulatorios. Una mirada europea. In: Revista de Ciencia de la Legislación, n. 8, outubro de 2020, Buenos Aires Universidad del Salvador).
7 BALLELL, Teresa Rodríguez De Las Heras. Teresa La inteligencia artificial en clave jurídica. Propuesta de conceptualización y esbozo de los retos regulatorios. Una mirada europea. In: Revista de Ciencia de la Legislación, n. 8, outubro de 2020, Buenos Aires Universidad del Salvador.
8 BALLELL, Teresa Rodríguez De Las Heras. Teresa La inteligencia artificial en clave jurídica. Propuesta de conceptualización y esbozo de los retos regulatorios. Una mirada europea. In: Revista de Ciencia de la Legislación, n. 8, outubro de 2020, Buenos Aires Universidad del Salvador.
9 MEDON, Filipe. Inteligência Artificial e Responsabilidade Civil: autonomia, riscos e solidariedade. Salvador: Juspodivm, 2020, p. 410.
10 Por mais, veja-se: FRAZÃO, Ana. Responsabilidade Civil de administradores de sociedades empresárias por decisões tomadas com base em sistemas de Inteligência Artificial. In: FRAZÃO, Ana; MULHOLLAND, Caitlin (coords.). Inteligência Artificial e Direito: ética, regulação e responsabilidade. São Paulo: Thomson Reuters Brasil, 2019.
11 No original: "Our interactions with robots and AI systems are interactions with the people who are deploying these new technologies, even when we do not realize it." (BALKIN, Jack. The path of robotics law. California Law Review Circuit, Berkeley, v. 06, p. 45-60, jun. 2015, p. 59). Na mesma direção: DONEDA, Danilo; MENDES, Laura Schertel; SOUZA, Carlos Affonso; ANDRADE, Norberto Nuno Gomes de. Considerações iniciais sobre inteligência artificial, ética e autonomia pessoal. Pensar, Fortaleza, v. 23, n. 4, p. 1-17, out./dez. 2018. p. 8.
12 Resolução do Parlamento Europeu, de 16 de fevereiro de 2017, que contém recomendações à Comissão sobre disposições de Direito Civil sobre Robótica (2015/2103(INL)). Disponível aqui. Acesso em 23 set. 2019.
13 BALLEL, Teresa Rodríguez de las Heras. SKEMA Global Webclass - Novas perspectivas da Responsabilidade Civil aplicadas à IA. Youtube, 10 dez. 2020. Disponível aqui. Acesso em 09 mar. 2021.