MIGALHAS DE PESO

  1. Home >
  2. De Peso >
  3. A responsabilidade civil no uso de Inteligência Artificial: Desafios e perspectivas

A responsabilidade civil no uso de Inteligência Artificial: Desafios e perspectivas

No Brasil, embora a legislação vigente, forneça diretrizes gerais sobre responsabilidade civil, a ausência de normas específicas para a IA apresenta lacunas e incertezas.

sexta-feira, 3 de janeiro de 2025

Atualizado às 11:38

A Inteligência Artificial (IA) tem promovido avanços significativos em diversos setores, como saúde, transporte, educação e comércio, alterando profundamente a maneira como a sociedade interage e consome tecnologia. No entanto, o crescimento exponencial do uso da IA também traz consigo preocupações legais, especialmente no que diz respeito à responsabilidade civil. Quando sistemas de IA causam danos, surge o desafio de identificar quem deve ser responsabilizado: o desenvolvedor, o fabricante, o operador ou mesmo o usuário final?

No Brasil, embora a legislação vigente, forneça diretrizes gerais sobre responsabilidade civil, a ausência de normas específicas para a IA apresenta lacunas e incertezas. Isso se torna ainda mais evidente diante da autonomia crescente desses sistemas, que muitas vezes tomam decisões imprevisíveis até mesmo para seus criadores. 

O conceito de Inteligência Artificial e seu uso no Brasil

A inteligência artificial pode ser definida como a capacidade de sistemas computacionais de realizar tarefas que normalmente exigiriam inteligência humana, como tomada de decisões, reconhecimento de padrões e aprendizado. No Brasil, a IA tem sido amplamente adotada em setores como serviços financeiros, transporte, saúde e até no Poder Judiciário, com o uso de algoritmos para auxiliar na admissão de recursos e até na análise de processos.

Todavia, a ausência de regulamentação específica no Brasil gera incertezas quanto à aplicação de princípios de responsabilidade civil. Instrumentos como o Código Civil, o Marco Civil da Internet e a Lei Geral de Proteção de Dados (LGPD) oferecem algumas diretrizes, mas carecem de amplitude para abordar as especificidades da IA, especialmente quanto à autonomia dos sistemas. 

A responsabilidade civil no contexto da IA: Objetiva e subjetiva

A responsabilidade civil no Brasil pode ser categorizada em dois tipos principais: responsabilidade objetiva, conforme o art 9271 do Código Civil, independe de culpa, sendo aplicada em casos nos quais a atividade do agente, por sua natureza, envolve risco para os direitos de outrem ou em situações específicas previstas em lei. Já a responsabilidade subjetiva, regulada pelo art. 1862, exige a comprovação de dolo ou culpa do agente, sendo configurada quando há um ato ilícito que causa danos a outra pessoa, com nexo de causalidade entre a conduta e o prejuízo. No contexto do uso de IA, surgem várias questões sobre como esses dois regimes podem ser aplicados.

A responsabilidade objetiva quanto às relações de consumo envolvendo Inteligência Artificial (IA), emergem desafios inéditos para os fornecedores, especialmente devido à inversão do ônus da prova em favor do consumidor. Tal característica impõe aos fornecedores a necessidade de uma produção probatória robusta para afastar a responsabilidade, quando cabível, no âmbito judicial.

A definição de "defeito" do produto, no contexto de IA, adquire novas dimensões e será amplamente discutida nos casos concretos. Questões como o dever de informação e a conformidade no uso conforme as orientações do fornecedor tornam-se ainda mais centrais. Conceitos como "risco razoavelmente esperado" e "risco inerente" assumem protagonismo nos debates, exigindo análises aprofundadas e técnicas para delimitar os limites da responsabilidade do fornecedor.

Além disso, a produção de provas apresenta desafios técnicos significativos, dada a complexidade dos sistemas de IA. A atuação de peritos judiciais altamente capacitados em tecnologia será indispensável, assim como a preparação técnica das partes envolvidas para sustentar suas argumentações. Essa dinâmica coloca à prova a estrutura do sistema judicial em lidar com demandas tecnológicas de alta complexidade.

Destaca-se também que o Código de Defesa do Consumidor, sendo uma legislação principiológica com um rol exemplificativo de práticas infrativas, abre espaço para interpretações diversificadas. Tal característica, embora enaltecida como uma virtude do sistema, pode gerar incertezas na aplicação prática em um campo tão novo e disruptivo quanto a IA. O mercado enfrentará desafios relacionados à uniformidade de entendimento sobre questões que ainda estão em construção jurídica.

Portanto, embora o arcabouço legislativo atual ofereça certo amparo e as discussões sobre regulamentação específica estejam em andamento, há claros espaços a serem preenchidos nas esferas administrativa e judicial. O objetivo é alcançar um equilíbrio no qual os direitos dos consumidores à qualidade e segurança dos produtos e serviços sejam preservados, ao mesmo tempo em que se garanta a defesa dos fornecedores e o incentivo à inovação tecnológica. Somente com essa harmonização será possível consolidar um ambiente regulatório seguro e favorável ao desenvolvimento de soluções baseadas em IA.

Por outro lado, a responsabilidade subjetiva pode ser aplicada nos casos em que é possível identificar falhas humanas, como na programação de algoritmos ou na supervisão inadequada de sistemas de IA. Nesse caso, seria necessário provar que o desenvolvedor, operador ou usuário agiu com negligência, imprudência ou imperícia. 

Dificuldades na identificação de responsáveis em sistemas autônomos

Uma das maiores dificuldades no contexto da IA é a identificação do responsável pelo dano. Sistemas autônomos podem tomar decisões complexas sem intervenção humana direta, o que dificulta a atribuição de responsabilidade. Em um cenário em que um carro autônomo causa um acidente, por exemplo, seria o fabricante do veículo, o programador do algoritmo, ou o proprietário do carro o responsável?

Além disso, o uso de machine learning e algoritmos que se auto aperfeiçoam com o tempo agrava esse desafio, uma vez que as decisões tomadas podem ser resultado de um processo de aprendizado que não estava previsto ou controlado no momento de sua programação inicial.

A doutrina jurídica tem discutido a possibilidade de criação de um regime de responsabilidade específico para a IA, que inclua a figura de um "supervisor" humano responsável pela supervisão contínua de sistemas autônomos. Essa supervisão poderia atenuar os riscos, mas também implicaria na criação de novos parâmetros de responsabilidade civil, como o dever de vigilância e atualização contínua dos sistemas de IA. 

Estado atual das regulamentações no Brasil

O Brasil deu um passo significativo na regulação da Inteligência Artificial (IA) com a aprovação, pelo Senado, em 10 de dezembro de 2024, de um conjunto de normas voltadas ao desenvolvimento e à operação de sistemas de IA no país3. Essas normas buscam equilibrar a proteção de direitos dos cidadãos, a segurança e a transparência no uso de tecnologias, com a necessidade de promover a inovação e o crescimento do setor.

Segurança e Transparência: A nova legislação enfatiza a segurança dos dados e a transparência nos algoritmos utilizados em sistemas de IA. Ela estabelece diretrizes para a coleta, armazenamento e uso de dados, com foco na proteção de informações pessoais e no combate a discriminações algorítmicas. Esses aspectos dialogam com a necessidade de garantir que os sistemas de IA atendam aos padrões esperados de confiabilidade e previsibilidade, tema já abordado no artigo, mas que poderia ser expandido para incluir discussões sobre como implementar tais garantias de maneira prática.

Supervisão e Fiscalização: Um ponto central da nova legislação é a criação do Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA), que terá como função supervisionar o desenvolvimento e a utilização de sistemas de IA, assegurando conformidade com as normas. Além disso, o SIA estará incumbido de promover a educação e o desenvolvimento de boas práticas em IA, contribuindo para mitigar os riscos associados ao uso da tecnologia. O artigo menciona a necessidade de supervisão humana, mas poderia aprofundar como a atuação de órgãos como o SIA influenciará a alocação de responsabilidades em casos de danos.

Sanções e Penalidades: Outro destaque é a previsão de sanções para o descumprimento das normas. Entre as penalidades, incluem-se multas significativas e a suspensão de sistemas de IA que representem riscos à segurança ou que infrinjam os direitos previstos na legislação. Esses dispositivos reforçam a importância de uma abordagem ética e responsável no desenvolvimento e uso de IA, exigindo das empresas maior comprometimento com a conformidade legal. O impacto dessas sanções na prática empresarial e na inovação tecnológica merece atenção, pois poderá influenciar diretamente a forma como as empresas operam e investem em soluções de IA.

Essa regulamentação marca o início de uma estrutura mais sólida para a governança da IA no Brasil, mas ainda depende de sua efetiva implementação e do desenvolvimento de capacidade institucional para sua aplicação. Nesse sentido, o avanço legislativo deve ser acompanhado por esforços para educar operadores do Direito, peritos e desenvolvedores, promovendo um ecossistema em que a responsabilidade civil esteja bem delimitada e as soluções tecnológicas possam prosperar. 

Lacunas legislativas e a necessidade de regulamentação específica

Tal projeto de lei em andamento no Brasil sobre a regulação da Inteligência Artificial4, tem sido amplamente criticado por suas propostas que, segundo alguns especialistas5, poderiam acabar engessando o desenvolvimento e a inovação na área, devido ao excesso de restrições e falta de clareza quanto à aplicação prática. Essa crítica aponta para a necessidade de um equilíbrio entre a proteção dos direitos e a promoção do avanço tecnológico. A falta de clareza legislativa gera incertezas sobre como aplicar os princípios de responsabilidade civil em casos envolvendo IA, o que pode desencorajar a inovação ou deixar consumidores desprotegidos.

Uma possível solução seria a criação de um marco regulatório específico para IA, inspirado em regulamentações internacionais como a da União Europeia6, que já propôs diretrizes para assegurar a transparência e a segurança dos sistemas de IA. Esse marco poderia prever responsabilidades claras para desenvolvedores, operadores e usuários, além de estabelecer diretrizes para a certificação e auditoria de sistemas de IA. 

Considerações finais e perspectivas para o futuro

A inteligência artificial representa uma revolução tecnológica que trará grandes benefícios à sociedade, mas também impõe desafios jurídicos significativos. A responsabilidade civil no uso de IA ainda é um campo em evolução, e há uma necessidade de adaptação das normas jurídicas para lidar com as novas realidades tecnológicas.

Contudo, é fundamental que os órgãos legislativos do Brasil avancem na regulamentação específica da IA para garantir a proteção dos direitos dos cidadãos e ao mesmo tempo fomentar a inovação tecnológica. O desenvolvimento de um regime de responsabilidade civil mais claro e eficiente, que contemple tanto a responsabilidade objetiva quanto a subjetiva, é essencial para equilibrar os interesses das partes envolvidas e assegurar um ambiente jurídico seguro e confiável para o uso de IA.

__________

1 Art. 927. Aquele que, por ato ilícito (arts. 186 e 187), causar dano a outrem, fica obrigado a repará-lo. (Vide ADI nº 7055) (Vide ADI nº 6792). Parágrafo único. Haverá obrigação de reparar o dano, independentemente de culpa, nos casos especificados em lei, ou quando a atividade normalmente desenvolvida pelo autor do dano implicar, por sua natureza, risco para os direitos de outrem.

2 Art. 186. Aquele que, por ação ou omissão voluntária, negligência ou imprudência, violar direito e causar dano a outrem, ainda que exclusivamente moral, comete ato ilícito.

3 https://oglobo.globo.com/economia/noticia/2024/12/10/senado-aprova-projeto-de-regulamentacao-de-inteligencia-artificial-no-brasil.ghtml

4 https://www25.senado.leg.br/web/atividade/materias/-/materia/157233

5 https://www12.senado.leg.br/radio/1/noticia/2024/09/05/especialista-criticam-proposta-de-regulamentacao-da-inteligencia-artificial

6 https://www.europarl.europa.eu/topics/pt/article/20230601STO93804/lei-da-ue-sobre-ia-primeira-regulamentacao-de-inteligencia-artificial#:~:text=Em%20abril%20de%202021%2C%20a%20Comiss%C3%A3o%20Europeia%20prop%C3%B4s,com%20o%20risco%20que%20representam%20para%20os%20utilizadores.

Marina Arista Silva

Marina Arista Silva

Advogada graduada em Direito pela Pontifícia Universidade Católica de Campinas (2020), inscrita na Ordem dos Advogados do Brasil, Seção de São Paulo (2022). Pós-graduada em Direito Processual Civil pela Faculdade Damásio de Jesus, autora de diversos artigos e líder do Departamento Contencioso no TM Associados.

Camilly Vitoria das Chagas Pereira

Camilly Vitoria das Chagas Pereira

Bacharelanda em Direito pela Faculdade de Direito Padre Anchieta. Trainee dos Departamentos Contencioso e Trabalhista no TM Associados.

AUTORES MIGALHAS

Busque pelo nome ou parte do nome do autor para encontrar publicações no Portal Migalhas.

Busca