A responsabilidade e a resolução de conflitos na contratação de inteligências artificiais
A crescente utilização de inteligências artificiais gera implicações jurídicas, destacando-se a responsabilidade civil. A necessidade de diretrizes claras para danos causados por esses sistemas cresce com sua expansão em setores diversos.
sexta-feira, 9 de fevereiro de 2024
Atualizado às 07:06
O uso crescente das inteligências artificiais - IAs, principalmente as generativas, no cotidiano, como Alexa, Siri, ChatGPT e Bard, de plataformas de recrutamento e seleção, como Gupy, tem gerado uma série de repercussões jurídicas, entre as quais se destacam aquelas relacionadas à responsabilidade civil e à resolução de conflitos entre as partes.
No Brasil, assim como em outros países, a utilização de IAs para a realização de tarefas repetitivas e específicas, automatização de processos e tomada de decisões tem se tornado uma prática comum em diversos setores, a exemplo de saúde, finanças, transporte e muitos outros, aumentando proporcionalmente as contratações de softwares e serviços ligados às inteligências artificiais.
Além dos benefícios, a expansão da contratação e do uso de IAs também traz a necessidade de estabelecer diretrizes claras quanto à responsabilidade civil para os eventuais danos ou prejuízos causados por esses sistemas. A responsabilidade civil é um conceito jurídico que se refere à obrigação de reparar os danos causados a terceiros devido a ações ou omissões de um indivíduo ou entidade.
No contexto das IAs, a conceituação e aplicação da responsabilidade civil é complexa, uma vez que essas tecnologias têm a capacidade de tomar decisões e agir de forma autônoma, muitas vezes sem a intervenção direta de humanos, e, até o momento, não há no Brasil uma regra específica para regular essa tecnologia. Portanto, na ausência de regulamentação, é fundamental definir em contrato quem será responsável por eventuais danos causados por uma IA.
No Brasil, a responsabilidade civil na contratação das IAs é regulada principalmente pelo Código Civil, que prevê a responsabilidade por atos ilícitos. Em seu artigo 186 tem que "aquele que, por ação ou omissão voluntária, negligência ou imprudência, violar direito e causar dano a outrem, ainda que exclusivamente moral, comete ato ilícito". Isso significa que, se uma IA causar, nesses moldes, danos a terceiros, a parte responsável pode ser considerada como aquela obrigada a repará-los.
No entanto, essa atribuição da responsabilidade é desafiadora, uma vez que a operação das IAs baseadas em algoritmos complexos e aprendizado de máquina (machine learning) torna difícil a identificação de quem é o responsável direto por um erro ou dano causado, restando a dúvida se essa responsabilidade caberia ao desenvolvedor, à empresa responsável pela base de dados que alimenta à IA ou à empresa detentora da tecnologia.
Nesse sentido, a Estratégia Brasileira de Inteligência Artificial - EBIA, instituída pela Portaria 4.617/21 do Ministério da Ciência, Tecnologia e Inovações - MCTI e o PL 21/20, ainda em tramitação no Senado Federal, propõem a criação de um regime jurídico específico para a responsabilidade civil decorrente do uso de IA.
O PL prevê, entre outras questões, a contratação de seguro para cobrir danos causados por IA e a criação de um cadastro nacional desses sistemas. Vale destacar que o PL para regulamentação da Inteligência Artificial no Brasil estabelece como um dos princípios do uso responsável a responsabilização e a prestação de contas, assim entendidos como a "demonstração, pelos agentes de IA, do cumprimento das normas de inteligência artificial e da adoção de medidas eficazes para o bom funcionamento dos sistemas, observadas suas funções." (art. 6º, inciso VI).
Ao se referir a agentes de IA, o texto considera (i) todas as pessoas, sejam elas físicas ou jurídicas, que participem do desenvolvimento do sistema de IA; (ii) todos aqueles que participam da fase de monitoramento e operação do sistema de IA; e (iii) todos aqueles envolvidos ou afetados, direta ou ainda indiretamente por sistemas de inteligência artificial.
Portanto, em termos de responsabilidade, a tendência legislativa é a de que todos aqueles agentes relacionados à produção e manutenção do correto funcionamento de uma IA tenham os mesmos deveres, conforme artigo 9º do PL.
Um aspecto muito importante é a relação entre a parte contratante e o desenvolvedor da IA. Em muitos casos, a parte não é a responsável direta pelo funcionamento da tecnologia, pois ela apenas a utiliza, mas, mesmo assim, teria certa responsabilidade em sua utilização. Portanto, é crucial estabelecer contratos claros que definam as responsabilidades de cada parte, inclusive em relação a eventuais danos causados pela IA. Essa medida pode ajudar a determinar quem é responsável por quais tipos de falhas ou erros da IA, mitigando riscos às partes.
Ainda, a regulamentação da responsabilidade civil na contratação de IA não se limita apenas ao Código Civil e ao PL mencionado. Outras leis e regulamentações podem ser aplicadas, dependendo do setor e da finalidade. Por exemplo, na área da saúde, a Agência Nacional de Vigilância Sanitária - ANVISA estabelece requisitos específicos para a utilização de IA em dispositivos médicos que devem ser cumpridos e estabelecidos nas respectivas contratações.
Independentemente da importância da clara designação de responsabilidades nas contratações de produtos e serviços envolvendo IA, é importante também especificar medidas de resolução de eventuais conflitos que surjam no correr da vigência contratual.
Nesse contexto, a busca pelo judiciário pode não ser a melhor alternativa. Por essa e por outras razões, é muito comum que, contratos de tecnologia em geral, o que inclui aqueles que tratam sobre a utilização de softwares e de IA, especifiquem cláusulas de arbitragem como uma forma de resolução de conflitos, ao invés de utilizar o tradicional poder judiciário.
A inserção dessa cláusula pode ser recomendável para as partes, principalmente porque grande parte dos produtos de tecnologia advém de outras jurisdições que não o Brasil.
Apesar de o procedimento arbitral ser relativamente custoso quando em comparação com o judicial esse tipo de resolução traz muitos benefícios, como (i) confidencialidade; (ii) flexibilidade e liberdade de escolha das partes com relação à Câmara utilizada e à lei aplicável; e (iii) celeridade na solução da disputa, além da entrega de uma decisão proferida por profissional especialista no assunto em questão.
A conclusão é que é muito importante as partes contratantes analisarem o caso concreto, com muita atenção, além das vantagens e desvantagens do uso da arbitragem como forma de resolução de conflitos em contratos de tecnologia.
Em resumo, a crescente presença das IAs em nossa sociedade traz desafios significativos no que diz respeito à responsabilidade civil. No Brasil, a legislação atual e o Projeto de Lei em tramitação buscam abordar essas questões, mas ainda há muito a ser discutido e definido.
Beatriz F. A Vicente
Advogada da equipe de Tecnologia, Mídia e Entretenimento do Opice Blum Advogados. Especialista em Cibersegurança, Governança e Proteção de dados pela PUC-RS.
Ingrid Fischer Carvalho
Advogada da equipe de Tecnologia, Mídia e Entretenimento do Opice Blum Advogados. Especialista em Direito Internacional e Direitos Humanos pela PUC-MG. Mestranda em Direito pela Université de Strasbourg.