Migalhas de Peso

A face oculta da inovação: Desvendando os perigos da IA e a necessidade de um marco regulatório específico

A inteligência artificial, presente em diversos setores, traz avanços tecnológicos, mas também desafios éticos e de segurança, destacando a necessidade urgente de regulamentação e maior responsabilidade das empresas.

7/11/2024

IA - inteligência artificial, outrora um sonho distante confinado à ficção científica, irrompeu em nossa realidade com uma força inegável, moldando a maneira como vivemos, trabalhamos e interagimos com o mundo. Da automação industrial aos algoritmos que ditam nossas experiências digitais, a IA permeia cada vez mais setores da sociedade, prometendo um futuro repleto de avanços tecnológicos e soluções inovadoras.

Entretanto, essa ascensão meteórica da IA não se dá sem consequências, e a sombra de seus perigos se projeta sobre a necessidade urgente de estabelecer mecanismos eficazes de controle e responsabilização.

Para os fãs de Black Mirror, as reflexões provocativas sobre a interseção da IA no cotidiano são uma constante, pois em situações distópicas e futuristas, a série mostra que "o uso excessivo ou mal direcionado da tecnologia pode distorcer a realidade, afetando as relações humanas e até mesmo manipulando a própria percepção da verdade".1

O caso chocante e real do jovem Sewell Setzer, de apenas 14 anos, que tirou a própria vida após interações perturbadoras com um chatbot da plataforma Character.AI, acende um alerta vermelho para a sociedade.

A tragédia expõe a face sombria da IA, revelando a vulnerabilidade humana diante de sistemas que, embora sofisticados, carecem da capacidade de compreender e lidar com as complexidades da emoção e da ética.

A mãe de Sewell, Megan Garcia, trava uma batalha legal contra a Character.AI e o Google, acusando-os de negligência, homicídio culposo e imposição intencional de sofrimento emocional. O processo argumenta que a plataforma, por meio de interações "hipersexualizadas e assustadoramente realistas" com um chatbot inspirado na série "Game of Thrones", conduziu o adolescente a um estado de apego emocional extremo e distorcido, culminando em sua decisão fatal. A tragédia levanta questões profundas sobre a responsabilidade das empresas que desenvolvem e comercializam IA, em especial quando se trata de tecnologias com potencial para impactar a saúde mental e o bem-estar dos usuários, especialmente os mais jovens.2

A busca por justiça no caso de Sewell esbarra em um cenário jurídico ainda em construção, onde a legislação se esforça para acompanhar o ritmo acelerado da inovação tecnológica.

Nos Estados Unidos, a regulamentação da IA se encontra em um estado fragmentado, com diferentes agências governamentais, como a FTC - Comissão Federal de Comércio, supervisionando aspectos específicos da tecnologia, sem que haja uma lei federal abrangente que estabeleça diretrizes claras e eficazes para o desenvolvimento e uso da IA.3

Essa lacuna legal coloca em risco a segurança e os direitos dos cidadãos, abrindo espaço para a utilização irresponsável da IA por empresas que priorizam o lucro em detrimento do bem-estar social. No Brasil, a discussão sobre a regulamentação da IA avança, com projetos de lei em tramitação no Congresso Nacional.

O PL 21/20 e o PL 2.338/23 buscam estabelecer um marco regulatório para a IA, definindo direitos e deveres para empresas e usuários, com o objetivo de garantir o desenvolvimento e a utilização ética, transparente e segura dessa tecnologia. O PL 2.338/23, inspirado na legislação europeia, propõe a classificação de sistemas de IA por níveis de risco, impondo obrigações proporcionais à magnitude dos riscos potenciais.4-5

A aprovação de uma legislação específica para a IA no Brasil é crucial para proteger os direitos dos cidadãos, estimular a inovação responsável e garantir que os benefícios da IA sejam distribuídos de forma justa e equitativa e para que a IA não vire um "vírus-dot-gov" em nosso sistema social.

Enquanto a legislação específica para a IA ainda se encontra em desenvolvimento, o CDC brasileiro se apresenta como um importante instrumento para a proteção dos consumidores em face aos riscos da IA.

O CDC, baseado no princípio da responsabilidade objetiva, responsabiliza o fornecedor pelos danos causados ao consumidor, independentemente da existência de culpa. Esse princípio se aplica a produtos e serviços que utilizam IA, abrangendo desde softwares e dispositivos autônomos até plataformas de dados e serviços automatizados.6

A aplicação do CDC ao universo da IA impõe às empresas a obrigação de garantir a segurança, a qualidade e a adequação de seus produtos e serviços, além de assegurar a transparência e o fornecimento de informações claras e precisas sobre o funcionamento da IA.

A falta de transparência, como o uso de algoritmos "caixa-preta" que tomam decisões sem que o consumidor compreenda os critérios utilizados, pode configurar violação do direito à informação e gerar responsabilização. O CDC também protege o consumidor contra práticas comerciais abusivas que se utilizam da IA, como a manipulação de preços, a discriminação na oferta de produtos e serviços e o marketing abusivo.

Mas quais seriam alguns dos potenciais danos causados pela IA passíveis de responsabilização segundo o CDC?

O CDC não menciona a IA explicitamente, já que foi criado antes da popularização da tecnologia. Entretanto, seus princípios gerais se aplicam a produtos e serviços que usam IA, definindo os tipos de danos pelos quais os fornecedores podem ser responsabilizados.

Como a responsabilidade do fornecedor no CDC é objetiva, ou seja, o fornecedor é responsabilizado pelos danos, independentemente de culpa, bastaria a comprovação do dano e do nexo causal com a IA.

Entretanto, a complexidade da IA e a falta de transparência em alguns sistemas ("caixa-preta") podem dificultar a identificação do defeito, vício ou prática abusiva. Nesses casos, o ônus da prova pode ser invertido, como  previsto no CDC, cabendo ao fornecedor comprovar que sua IA não causou o dano.

Já a LGPD e o Marco Civil da Internet são marcos regulatórios importantes no Brasil, mas não abordam a IA de forma específica. No entanto, assim como no CDC, seus princípios gerais se aplicam ao uso da IA, especialmente no que diz respeito à coleta, processamento e proteção de dados pessoais.7-8

A LGPD estabelece diretrizes para o tratamento de dados pessoais por qualquer organização, pública ou privada. No contexto da IA, a LGPD é crucial para garantir que:

A LGPD também garante aos titulares de dados o direito de solicitar a correção, exclusão ou anonimização de seus dados, o que é relevante em casos de decisões automatizadas discriminatórias tomadas por IA.

Já o Marco Civil da Internet foca na proteção da liberdade de expressão, privacidade e neutralidade da rede. Embora não trate diretamente da IA, o Marco Civil impõe obrigações aos provedores de internet e aplicações online, que podem ser relevantes no contexto da IA:

Todas estas normas são importantes, mas apresentam desafios, pois as tecnologias evoluem rapidamente e a legislação precisa se adaptar. A falta de especificidade sobre IA nas leis existentes pode gerar incertezas e dificultar a responsabilização por danos.

Como acima já destacado, a discussão sobre uma legislação específica para IA no Brasil está em andamento, como demonstrado pelos projetos de lei 21/20 e 2.338/23. Esses projetos buscam:

O Brasil também observa as tendências internacionais, como a lei de IA da União Europeia (AI Act), que pode influenciar a legislação brasileira. A regulamentação da IA é fundamental para garantir que a tecnologia seja utilizada de forma ética, segura e em benefício da sociedade.

A LGPD, o Marco Civil e o CDC fornecem uma base legal importante, mas uma legislação específica para IA é crucial para lidar com os desafios e as complexidades da tecnologia.

Além disso, a crescente humanização da IA, impulsionada por avanços em áreas como o processamento de linguagem natural, tem levado ao desenvolvimento de chatbots cada vez mais sofisticados, capazes de simular conversas e interações humanas de forma convincente.

Essa capacidade de imitar a comunicação humana, embora promissora em diversos campos, apresenta riscos consideráveis quando se trata da saúde mental dos usuários. A sensação de conexão e intimidade que os chatbots podem proporcionar, especialmente em momentos de fragilidade emocional, pode levar à dependência e ao isolamento, substituindo interações humanas genuínas por relações artificiais e potencialmente prejudiciais.

Inclusive, especialistas alertam para os perigos da utilização da IA como substituto para terapias tradicionais.

A busca por consolo e apoio emocional em chatbots, embora compreensível em um mundo cada vez mais digitalizado e individualista, pode mascarar problemas de saúde mental e impedir que as pessoas busquem ajuda profissional qualificada.

A IA, por mais avançada que seja, não possui a capacidade de oferecer um tratamento adequado para questões complexas como depressão, ansiedade e trauma, e sua utilização como ferramenta terapêutica sem a devida supervisão profissional pode agravar a situação dos usuários, levando a consequências desastrosas como o caso de Sewell Setzer.

A regulamentação da IA é um imperativo global, que demanda a união de esforços entre governos, empresas, especialistas e a sociedade civil. A criação de leis eficazes que responsabilizem as empresas pelos danos causados por seus sistemas de IA, a promoção da pesquisa e desenvolvimento de IA ética e transparente, e a educação da sociedade sobre os benefícios e riscos da IA são medidas essenciais para garantir que essa poderosa ferramenta seja utilizada para o bem da humanidade.

O caso da Character.AI, embora trágico, serve como um chamado à ação, um poderoso lembrete de que a inovação tecnológica desenfreada, sem a devida atenção à ética, à segurança e ao bem-estar humano, pode ter consequências devastadoras.

Em suma, a inteligência artificial, com sua capacidade de aprendizado e autonomia, nos coloca diante de um futuro que pode facilmente se transformar em um episódio de Black Mirror.

A promessa de inovação e progresso caminha lado a lado com a sombra de tragédias como a de Sewell Setzer, revelando a necessidade urgente de uma reflexão profunda sobre os limites éticos e a responsabilidade civil no desenvolvimento e uso da IA.

A construção de um futuro onde a IA seja uma força propulsora do bem-estar social, e não um espelho distorcido da nossa própria falibilidade, depende da união de esforços entre governos, empresas e sociedade civil. A regulamentação eficaz, a pesquisa ética e a educação são os pilares para garantir que a inteligência artificial, ao invés de nos conduzir a um futuro distópico, reflita os melhores aspectos da nossa humanidade.

Por outro lado a responsabilidade civil das empresas, aliada à conscientização dos usuários e à implementação de uma legislação robusta e abrangente, certamente contribuirão para a construção de um futuro em que a IA possa ser utilizada de forma responsável e segura, impulsionando o progresso social sem comprometer a dignidade e os direitos humanos.

Afinal, queremos um futuro em que a tecnologia seja uma aliada, e não uma ameaça "cibernética". Sejamos protagonistas da nossa história, e não personagens de um episódio de Black Mirror!

________________

1 Isso é muito Black Mirror: avanço da inteligência artificial afeta nossa percepção da realidade? - Consumidor Moderno. Acessado em 06/11/2024.

2 Character.AI: mãe culpa empresa por suicídio do filho - 30/10/2024 - Tec - Folha. Acessado em 06/11/2024.

3 Fórum Brasileiro de IA — Lawgorithm. Acessado em 06/11/2024.

4 Portal da Câmara dos Deputados. Acessado em 06/11/2024.

5 PL 2338/2023 - Senado Federal. Acessado em 06/11/2024.

6 CDC. Art. 14.

7 L13709. Acessado em 06/11/2024.

8 L12965. Acessado em 06/11/2024.

Rhuana Rodrigues César
Sócia do Chenut.

Veja mais no portal
cadastre-se, comente, saiba mais

Artigos Mais Lidos

ITBI na integralização de bens imóveis e sua importância para o planejamento patrimonial

19/11/2024

Cláusulas restritivas nas doações de imóveis

19/11/2024

A relativização do princípio da legalidade tributária na temática da sub-rogação no Funrural – ADIn 4395

19/11/2024

Quais cuidados devo observar ao comprar um negócio?

19/11/2024

Estabilidade dos servidores públicos: O que é e vai ou não acabar?

19/11/2024