MIGALHAS DE PESO

  1. Home >
  2. De Peso >
  3. A inteligência artificial no anteprojeto do Código Civil/24

A inteligência artificial no anteprojeto do Código Civil/24

A clareza na definição de termos e responsabilidades, bem como o desenvolvimento de mecanismos eficazes de monitoramento e fiscalização, serão essenciais para o sucesso dessa regulamentação.

segunda-feira, 3 de junho de 2024

Atualizado às 10:04

1. Introdução 

1.1.  A Introdução da Inteligência Artificial no Anteprojeto do Código Civil de 2024 

No dia 17 de maio de 2024, a comissão de juristas coordenada pelo Ministro do Superior Tribunal de Justiça, Luis Felipe Salomão, apresentou ao Presidente do Senado, Rodrigo Pacheco, o anteprojeto do novo Código Civil. Uma das inovações mais significativas deste anteprojeto é a inclusão de dispositivos específicos sobre inteligência artificial, representando um avanço necessário para a regulação de tecnologias emergentes que impactam profundamente a sociedade contemporânea.

É imperativo que tais dispositivos sejam analisados criticamente, visando assegurar um equilíbrio delicado entre a inovação tecnológica e a proteção dos direitos fundamentais. A regulação de novas tecnologias deve, inevitavelmente, levar em conta tanto os potenciais riscos quanto os benefícios, garantindo que os direitos dos indivíduos sejam protegidos sem comprometer o progresso tecnológico.

A clareza e especificidade na legislação são essenciais para evitar ambiguidades que possam prejudicar a sua aplicação prática. A introdução de princípios como transparência, não discriminação e responsabilização no contexto da inteligência artificial é um reflexo do compromisso com a criação de um ambiente jurídico que favoreça a inovação e, simultaneamente, promova a segurança jurídica.

2. A Importância da Ética e da Transparência na Regulação da Inteligência Artificial no Código Civil

No anteprojeto ora analisado, há um artigo que estabelece que o desenvolvimento de sistemas de inteligência artificial deve respeitar os direitos fundamentais e da personalidade. Isso é essencial. A obrigatoriedade de garantir sistemas seguros e confiáveis em benefício da pessoa natural e jurídica, bem como do desenvolvimento científico e tecnológico, reflete uma preocupação legítima com a ética na inteligência artificial. Embora o referido dispositivo legal avance em direções importantes, é necessário um acompanhamento rigoroso para garantir que as disposições legais sejam efetivamente implementadas e fiscalizadas.

A exigência de não discriminação em decisões, uso de dados e processos baseados em inteligência artificial é fundamental. No entanto, a implementação prática dessa medida pode enfrentar desafios significativos, dada a complexidade dos algoritmos e a dificuldade de identificar e mitigar vieses inerentes aos dados utilizados para treinar esses sistemas. A transparência e a possibilidade de auditoria, também mencionadas no anteprojeto, são vitais para que os processos de inteligência artificial possam ser monitorados e avaliados. A necessidade de explicação e rastreabilidade também são aspectos importantes, pois permitem que as decisões automatizadas sejam compreendidas e, se necessário, questionadas. A supervisão humana e a governança adicionam uma camada essencial de responsabilidade e controle, embora a definição e aplicação prática desses conceitos ainda demandem clareza.

Nos últimos anos, a inteligência artificial emergiu como uma das tecnologias mais disruptivas, redefinindo radicalmente nosso modo de vida e trabalho. Presente em diversas aplicações, desde sistemas de recomendação em plataformas de e-commerce até sistemas de reconhecimento facial usados por órgãos governamentais, a inteligência artificial está remodelando o mundo à nossa volta. Contudo, essa revolução tecnológica traz consigo desafios inéditos, especialmente no que diz respeito à transparência dos algoritmos que impulsionam essas inovações.

Abordar o princípio da transparência no contexto da inteligência artificial é crucial tanto para o Direito quanto para a sociedade. As implicações legais e éticas da falta de transparência são vastas e complexas, merecendo uma análise detalhada. O princípio da transparência assegura que as decisões sejam tomadas de maneira clara e objetiva, permitindo que as pessoas afetadas por essas decisões compreendam o processo e as razões por trás delas. No universo da inteligência artificial, a transparência é essencial para garantir que as decisões tomadas por algoritmos sejam compreensíveis, explicáveis e justas.

Os algoritmos de inteligência artificial, com sua complexidade intrínseca, muitas vezes se tornam opacos, dificultando a compreensão e explicação de como as decisões são tomadas. Por exemplo, um algoritmo de reconhecimento facial pode ser mais preciso na identificação de rostos de pessoas brancas em comparação com rostos de pessoas negras, levando a decisões potencialmente injustas. Sem a capacidade de explicar como uma decisão de inteligência artificial foi tomada, torna-se impossível "consertar" um algoritmo defeituoso, pois não saberíamos onde reside o erro.

A transparência na inteligência artificial é vital não apenas para assegurar que decisões justas sejam tomadas, mas também para aumentar a confiança nesta tecnologia revolucionária. À medida que a inteligência artificial se torna cada vez mais integrada em todos os aspectos de nossas vidas, incluindo áreas críticas, a confiança do público na tecnologia se torna indispensável e está intrinsecamente ligada à transparência. A transparência permite que os usuários e as partes interessadas entendam como as decisões são tomadas, aumentando a confiança e a usabilidade da tecnologia.

A falta de transparência na inteligência artificial pode acarretar significativas implicações legais e éticas. Por exemplo, a Lei Geral de Proteção de Dados (LGPD) do Brasil estabelece que os titulares dos dados têm direito a informações claras e transparentes sobre o processamento de seus dados pessoais. Isso significa que as empresas que utilizam inteligência artificial devem fornecer informações compreensíveis sobre como os dados pessoais são processados e utilizados pelos algoritmos de inteligência artificial. A violação dessa norma pode resultar em sérias consequências legais.

Além disso, a falta de transparência pode levar a violações dos direitos humanos, como discriminação e exclusão social, bem como a desigualdades no acesso à tecnologia. A ética, outro tema crucial ligado à falta de transparência na inteligência artificial, envolve um conjunto de princípios morais que orientam o comportamento humano e a tomada de decisões. Decisões éticas questionáveis, como discriminação contra certos grupos ou falta de responsabilidade por erros cometidos por algoritmos, podem minar a confiança pública na tecnologia e levar a consequências prejudiciais.

Em resumo, a transparência na inteligência artificial é fundamental para garantir que as decisões tomadas pelos algoritmos sejam compreensíveis, justas e éticas. A falta de transparência pode levar a consequências prejudiciais, como discriminação, exclusão social e desigualdade. É crucial que desenvolvedores e usuários de inteligência artificial estejam cientes da importância da transparência e trabalhem para garantir que seus algoritmos sejam transparentes e responsáveis. Além disso, autoridades legais e regulatórias devem considerar a transparência como um requisito essencial para a utilização da inteligência artificial em áreas críticas, a fim de garantir a proteção dos direitos humanos e a responsabilidade ética.

3. Acessibilidade, Usabilidade e Confiabilidade na Regulação da Inteligência Artificial

A acessibilidade, usabilidade e confiabilidade dos sistemas de inteligência artificial, conforme destacado no anteprojeto, são igualmente importantes. Esses princípios asseguram que a tecnologia seja inclusiva e que seus benefícios sejam amplamente distribuídos, sem exclusão de grupos vulneráveis. Entretanto, garantir essas condições em todas as aplicações de inteligência artificial pode ser um desafio técnico e econômico significativo. Como aponta Luciano Floridi, "a inclusão digital e a acessibilidade são aspectos cruciais para garantir que os avanços tecnológicos não perpetuem ou ampliem desigualdades existentes"1. Além disso, Virginia Dignum observa que "a confiabilidade dos sistemas de IA deve ser constantemente monitorada e aprimorada para assegurar que operem de maneira previsível e segura"2. A usabilidade, conforme ressaltado por Ben Shneiderman, é essencial para que a interação humana com a inteligência artificial seja intuitiva e eficaz, reduzindo a complexidade técnica para os usuários finais. Portanto, embora a implementação desses princípios seja desafiadora, é fundamental para garantir que a inteligência artificial beneficie toda a sociedade de maneira justa e equitativa. 

Com a crescente utilização de algoritmos e inteligências artificiais em diversas áreas da sociedade, surgem importantes questionamentos sobre a privacidade dos indivíduos e a transparência dos processos decisórios das máquinas. Nesse contexto, a Lei Geral de Proteção de Dados - LGPD - surge como uma importante ferramenta para proteger os direitos fundamentais dos cidadãos brasileiros.

Nesse sentido, é imperioso tratar do artigo 20 da LGPD, que versa sobre o direito à explicação diante dos algoritmos utilizados nas tomadas de decisões das inteligências artificiais. Vejamos a sua redação:

"Art. 20. O titular dos dados tem direito a solicitar a revisão de decisões tomadas unicamente com base em tratamento automatizado de dados pessoais que afetem seus interesses, incluídas as decisões destinadas a definir o seu perfil pessoal, profissional, de consumo e de crédito ou os aspectos de sua personalidade.

Parágrafo 1º. O controlador deverá fornecer, sempre que solicitadas, informações claras e adequadas a respeito dos critérios e dos procedimentos utilizados para a decisão automatizada, observados os segredos comercial e industrial.

Parágrafo 2º. Em caso de não oferecimento de informações de que trata o § 1º deste artigo baseado na observância de segredo comercial e industrial, a autoridade nacional poderá realizar auditoria para verificação de aspectos discriminatórios em tratamento automatizado de dados pessoais."

Como se vê da leitura do artigo acima transcrito, ele prevê o direito do titular dos dados de receber informações claras e precisas sobre o tratamento de seus dados pessoais, inclusive sobre os critérios utilizados para a tomada de decisão automatizada. Isso significa que, caso um algoritmo seja utilizado para tomar decisões que afetem diretamente a vida do titular dos dados, este tem o direito de saber como o algoritmo chegou a essa conclusão.

A explicação ao titular do dado deve ser fornecida de forma clara e acessível, sem que isso implique na revelação de segredos industriais ou comerciais das empresas que utilizam os algoritmos. Ou seja, as empresas precisam encontrar formas de fornecer a explicação ao titular do dado sem expor informações confidenciais.

O direito à explicação diante dos algoritmos é especialmente importante no contexto das inteligências artificiais, que muitas vezes são utilizadas para tomar decisões que afetam diretamente a vida das pessoas. Por exemplo, uma inteligência artificial pode ser utilizada para avaliar a concessão de crédito ou a contratação de um seguro de saúde. Se uma decisão desfavorável é tomada com base em critérios não transparentes, o titular dos dados pode ficar prejudicado sem saber exatamente o motivo.

Nesse sentido, o direito à explicação permite que o titular dos dados possa contestar a decisão tomada pela inteligência artificial, caso considere que houve algum tipo de discriminação ou injustiça. Além disso, a transparência dos processos decisórios das inteligências artificiais pode contribuir para o aprimoramento dos algoritmos, possibilitando que sejam corrigidos eventuais vieses ou erros.

O referido artigo 20 da LGPD representa um importante avanço na proteção dos direitos fundamentais dos cidadãos brasileiros no contexto das inteligências artificiais. Ao garantir o direito à explicação diante dos algoritmos, a LGPD busca promover a transparência e a responsabilidade no tratamento dos dados pessoais, evitando que decisões sejam tomadas de forma arbitrária ou discriminatória.

Além disso, também deve-se estar atento às implicações práticas do direito à explicação, como a possibilidade de contestação da decisão tomada pela inteligência artificial, bem como as implicações legais e éticas envolvidas nesse processo.

Cabe destacar, ainda, que o direito à explicação não se limita apenas às inteligências artificiais utilizadas para tomada de decisão. Ele se aplica a todos os casos em que os dados pessoais do titular são processados por meios automatizados, incluindo casos de perfilagem e recomendações personalizadas.

Por fim, é importante lembrar que a LGPD representa apenas o primeiro passo no sentido de garantir a proteção dos direitos fundamentais dos cidadãos no contexto das inteligências artificiais. É necessário um esforço conjunto dos governos, empresas, sociedade civil e academia para avançar na transparência e responsabilidade no uso dessas tecnologias, garantindo que elas sejam utilizadas para promover o bem-estar coletivo e não para perpetuar desigualdades e injustiças.

Responsabilidade Civil e Reparação Integral em Sistemas de Inteligência Artificial

A atribuição de responsabilidade civil pelo princípio da reparação integral dos danos a uma pessoa natural ou jurídica, conforme descrito no anteprojeto, é um aspecto crucial para a proteção das vítimas de eventuais danos causados por sistemas de inteligência artificial. Este princípio assegura que as vítimas sejam totalmente compensadas por qualquer prejuízo sofrido. Contudo, a determinação da responsabilidade em casos envolvendo inteligência artificial pode ser complexa, especialmente quando há múltiplos agentes envolvidos no desenvolvimento, implementação e operação dos sistemas. Conforme argumenta Sandra Wachter3, "a responsabilidade pela inteligência artificial deve ser cuidadosamente distribuída entre todos os atores envolvidos para garantir justiça e eficácia na reparação de danos". Ryan Calo4 destaca que "a opacidade e a autonomia dos sistemas de inteligência artificial complicam a atribuição de responsabilidade, exigindo uma abordagem regulatória inovadora". Portanto, embora o princípio da reparação integral seja fundamental, sua aplicação prática requer um framework legal robusto que possa lidar com as particularidades da inteligência artificial.

5. Monitoramento da Inteligência Artificial

O anteprojeto estabelece, ainda, a necessidade de monitoramento pela sociedade e regulamentação por legislação específica para o desenvolvimento e uso da inteligência artificial em áreas relevantes para os direitos fundamentais e de personalidade é uma medida prudente. Esse monitoramento é essencial para garantir que o avanço tecnológico não comprometa os direitos dos indivíduos e que a inteligência artificial seja utilizada de forma ética e responsável. Conforme Sandra Wachter et al.5 argumentam, "a governança da inteligência artificial deve incluir mecanismos claros de supervisão e regulamentação para assegurar a responsabilidade e a ética no uso dessas tecnologias".

6. Direito à Informação e Transparência em Interações com Sistemas de Inteligência Artificial

O artigo que garante às pessoas naturais o direito à informação sobre suas interações com sistemas de inteligência artificial e sobre o modelo geral de funcionamento e critérios para decisão automatizada é um passo importante para a transparência e o empoderamento dos usuários. Esse direito é crucial para que os indivíduos possam compreender como as decisões automatizadas influenciam suas vidas e, se necessário, buscar reparação. No entanto, a efetividade dessa medida depende de quão acessíveis e compreensíveis essas informações serão para o público em geral. A transparência nos sistemas de inteligência artificial é fundamental para garantir a confiança pública e a accountability, especialmente em um contexto onde as decisões automatizadas podem ter impactos significativos na vida das pessoas. Além disso, a clareza e a compreensibilidade das informações fornecidas aos usuários são essenciais para que eles possam realmente entender e questionar as decisões automatizadas que os afetam.

7. Proteção de Imagens e Transparência no Uso da Inteligência Artificial

O anteprojeto também estabelece que a criação de imagens de pessoas vivas e falecidas por meio de inteligência artificial, exige consentimento prévio e expresso, tanto da pessoa quanto de seus herdeiros legais ou representantes, sendo, claramente, uma salvaguarda essencial para proteger a dignidade e reputação do titular do direito. Este requisito visa prevenir usos difamatórios ou desrespeitosos, assegurando que o legado da pessoa seja respeitado. Afinal, a proteção legal das criações de inteligência artificial deve considerar questões de propriedade intelectual e consentimento, especialmente em contextos sensíveis. A proibição de exploração comercial sem consentimento é justa, mas a exceção prevista em lei deve ser claramente definida para evitar abusos.

Noutro giro, a obrigatoriedade de mencionar, de forma clara e precisa, que uma imagem foi criada por inteligência artificial é uma medida necessária para manter a transparência e a honestidade na representação de indivíduos. Essa transparência ajuda a evitar enganos e a proteger a confiança do público. Essa abordagem visa assegurar que os consumidores não sejam enganados por conteúdo que pode parecer real, mas que foi artificialmente criado ou manipulado. A bem da verdade, esse é um movimento global em direção à transparência que reflete a necessidade de regulamentos robustos para proteger os direitos dos consumidores e promover o uso ético da tecnologia de inteligência artificial.

8. Conclusão

Em resumo, os artigos do anteprojeto do Código Civil que versam sobre inteligência artificial são um passo importante para a regulação dessa tecnologia emergente. No entanto, a implementação prática dessas disposições requer um cuidado meticuloso para garantir que os princípios estabelecidos sejam realmente efetivos na proteção dos direitos fundamentais e na promoção de uma inteligência artificial ética e responsável. A clareza na definição de termos e responsabilidades, bem como o desenvolvimento de mecanismos eficazes de monitoramento e fiscalização, serão essenciais para o sucesso dessa regulamentação.

_____________

1 Floridi, L. (2018). The Ethics of Artificial Intelligence. Oxford University Press.

2 Dignum, V. (2019). Responsible Artificial Intelligence: How to Develop and Use AI in a Responsible Way. Springer.

3 Wachter, S., Mittelstadt, B., & Floridi, L. (2017). Why a right to explanation of automated decision-making does not exist in the General Data Protection Regulation. International Data Privacy Law, 7(2), 76-99

Calo, R. (2017). Artificial Intelligence Policy: A Roadmap. SSRN

5 Wachter, S., Mittelstadt, B., & Floridi, L. (2017). Why a right to explanation of automated decision-making does not exist in the General Data Protection Regulation. International Data Privacy Law, 7(2), 76-99.

_____________

Floridi, L. (2018). The Ethics of Artificial Intelligence. Oxford University Press.

Dignum, V. (2019). Responsible Artificial Intelligence: How to Develop and Use AI in a Responsible Way. Springer.

Shneiderman, B. (2020). Human-Centered AI. MIT Press.

Wachter, S., Mittelstadt, B., & Floridi, L. (2017). Why a right to explanation of automated decision-making does not exist in the General Data Protection Regulation. International Data Privacy Law, 7(2), 76-99

Calo, R. (2017). Artificial Intelligence Policy: A Roadmap. SSRN 

Carlos Gustavo Direito

Carlos Gustavo Direito

Desembargador com assento efetivo na 16ª Câmara de Direito Privado do Tribunal de Justiça do Estado do Rio de Janeiro. Desembargador do Tribunal de Justiça do Estado do Rio de Janeiro desde 30 de agosto de 2021.

Otavio Simões Brissant

Otavio Simões Brissant

Advogado. Presidente da Comissão de Inteligência Artificial da OAB/RJ.

AUTORES MIGALHAS

Busque pelo nome ou parte do nome do autor para encontrar publicações no Portal Migalhas.

Busca