Migalhas de Peso

A responsabilidade e a resolução de conflitos na contratação de inteligências artificiais

A crescente utilização de inteligências artificiais gera implicações jurídicas, destacando-se a responsabilidade civil. A necessidade de diretrizes claras para danos causados por esses sistemas cresce com sua expansão em setores diversos.

9/2/2024

O uso crescente das inteligências artificiais - IAs, principalmente as generativas, no cotidiano, como Alexa, Siri, ChatGPT e Bard, de plataformas de recrutamento e seleção, como Gupy, tem gerado uma série de repercussões jurídicas, entre as quais se destacam aquelas relacionadas à responsabilidade civil e à resolução de conflitos entre as partes.

No Brasil, assim como em outros países, a utilização de IAs para a realização de tarefas repetitivas e específicas, automatização de processos e tomada de decisões tem se tornado uma prática comum em diversos setores, a exemplo de saúde, finanças, transporte e muitos outros, aumentando proporcionalmente as contratações de softwares e serviços ligados às inteligências artificiais. 

Além dos benefícios, a expansão da contratação e do uso de IAs também traz a necessidade de estabelecer diretrizes claras quanto à responsabilidade civil para os eventuais danos ou prejuízos causados por esses sistemas. A responsabilidade civil é um conceito jurídico que se refere à obrigação de reparar os danos causados a terceiros devido a ações ou omissões de um indivíduo ou entidade.

No contexto das IAs, a conceituação e aplicação da responsabilidade civil é complexa, uma vez que essas tecnologias têm a capacidade de tomar decisões e agir de forma autônoma, muitas vezes sem a intervenção direta de humanos, e, até o momento, não há no Brasil uma regra específica para regular essa tecnologia. Portanto, na ausência de regulamentação, é fundamental definir em contrato quem será responsável por eventuais danos causados por uma IA.

No Brasil, a responsabilidade civil na contratação das IAs é regulada principalmente pelo Código Civil, que prevê a responsabilidade por atos ilícitos. Em seu artigo 186 tem que "aquele que, por ação ou omissão voluntária, negligência ou imprudência, violar direito e causar dano a outrem, ainda que exclusivamente moral, comete ato ilícito". Isso significa que, se uma IA causar, nesses moldes, danos a terceiros, a parte responsável pode ser considerada como aquela obrigada a repará-los.

No entanto, essa atribuição da responsabilidade é desafiadora, uma vez que a operação das IAs baseadas em algoritmos complexos e aprendizado de máquina (machine learning) torna difícil a identificação de quem é o responsável direto por um erro ou dano causado, restando a dúvida se essa responsabilidade caberia ao desenvolvedor, à empresa responsável pela base de dados que alimenta à IA ou à empresa detentora da tecnologia.

Nesse sentido, a Estratégia Brasileira de Inteligência Artificial - EBIA, instituída pela Portaria 4.617/21 do Ministério da Ciência, Tecnologia e Inovações - MCTI e o PL 21/20, ainda em tramitação no Senado Federal, propõem a criação de um regime jurídico específico para a responsabilidade civil decorrente do uso de IA. 

O PL prevê, entre outras questões, a contratação de seguro para cobrir danos causados por IA e a criação de um cadastro nacional desses sistemas. Vale destacar que o PL para regulamentação da Inteligência Artificial no Brasil estabelece como um dos princípios do uso responsável a responsabilização e a prestação de contas, assim entendidos como a “demonstração, pelos agentes de IA, do cumprimento das normas de inteligência artificial e da adoção de medidas eficazes para o bom funcionamento dos sistemas, observadas suas funções.” (art. 6º, inciso VI).

Ao se referir a agentes de IA, o texto considera (i) todas as pessoas, sejam elas físicas ou jurídicas, que participem do desenvolvimento do sistema de IA; (ii) todos aqueles que participam da fase de monitoramento e operação do sistema de IA; e (iii) todos aqueles envolvidos ou afetados, direta ou ainda indiretamente por sistemas de inteligência artificial.

Portanto, em termos de responsabilidade, a tendência legislativa é a de que todos aqueles agentes relacionados à produção e manutenção do correto funcionamento de uma IA tenham os mesmos deveres, conforme artigo 9º do PL.

Um aspecto muito importante é a relação entre a parte contratante e o desenvolvedor da IA. Em muitos casos, a parte não é a responsável direta pelo funcionamento da tecnologia, pois ela apenas a utiliza, mas, mesmo assim, teria certa responsabilidade em sua utilização. Portanto, é crucial estabelecer contratos claros que definam as responsabilidades de cada parte, inclusive em relação a eventuais danos causados pela IA. Essa medida pode ajudar a determinar quem é responsável por quais tipos de falhas ou erros da IA, mitigando riscos às partes.

Ainda, a regulamentação da responsabilidade civil na contratação de IA não se limita apenas ao Código Civil e ao PL mencionado. Outras leis e regulamentações podem ser aplicadas, dependendo do setor e da finalidade. Por exemplo, na área da saúde, a Agência Nacional de Vigilância Sanitária - ANVISA estabelece requisitos específicos para a utilização de IA em dispositivos médicos que devem ser cumpridos e estabelecidos nas respectivas contratações.

Independentemente da importância da clara designação de responsabilidades nas contratações de produtos e serviços envolvendo IA, é importante também especificar medidas de resolução de eventuais conflitos que surjam no correr da vigência contratual. 

Nesse contexto, a busca pelo judiciário pode não ser a melhor alternativa. Por essa e por outras razões, é muito comum que, contratos de tecnologia em geral, o que inclui aqueles que tratam sobre a utilização de softwares e de IA, especifiquem cláusulas de arbitragem como uma forma de resolução de conflitos, ao invés de utilizar o tradicional poder judiciário.

A inserção dessa cláusula pode ser recomendável para as partes, principalmente porque grande parte dos produtos de tecnologia advém de outras jurisdições que não o Brasil.

Apesar de o procedimento arbitral ser relativamente custoso quando em comparação com o judicial esse tipo de resolução traz muitos benefícios, como (i) confidencialidade; (ii) flexibilidade e liberdade de escolha das partes com relação à Câmara utilizada e à lei aplicável; e (iii) celeridade na solução da disputa, além da entrega de uma decisão proferida por profissional especialista no assunto em questão. 

A conclusão é que é muito importante as partes contratantes analisarem o caso concreto, com muita atenção, além das vantagens e desvantagens do uso da arbitragem como forma de resolução de conflitos em contratos de tecnologia.

Em resumo, a crescente presença das IAs em nossa sociedade traz desafios significativos no que diz respeito à responsabilidade civil. No Brasil, a legislação atual e o Projeto de Lei em tramitação buscam abordar essas questões, mas ainda há muito a ser discutido e definido.

Beatriz F. A Vicente
Advogada da equipe de Tecnologia, Mídia e Entretenimento do Opice Blum Advogados. Especialista em Cibersegurança, Governança e Proteção de dados pela PUC-RS.

Ingrid Fischer Carvalho
Advogada da equipe de Tecnologia, Mídia e Entretenimento do Opice Blum Advogados. Especialista em Direito Internacional e Direitos Humanos pela PUC-MG. Mestranda em Direito pela Université de Strasbourg.

Veja mais no portal
cadastre-se, comente, saiba mais

Artigos Mais Lidos

A doação em vida não resolve o problema: O aumento do ITCMD na reforma tributária

15/8/2024

ITCMD: Postergar planejamento sucessório pode sair caro por causa da reforma tributária

15/8/2024

Quando o advogado deve dizer “não”?

15/8/2024

Por que as buscas e apreensões extrajudiciais ainda não saíram do papel?

14/8/2024

Invalidade da cláusula non cedendo em face da Lei das Duplicatas

16/8/2024