Migalhas Quentes

Opinião: Morte de jovem que se apaixonou por IA expõe lacuna legal

Mãe processa Character.AI por morte do filho após interação com chatbot; advogado Luiz Augusto D'Urso alerta sobre falta de regulamentação de IA no Brasil.

29/10/2024

Em processo inédito, uma mãe americana abriu uma ação judicial nos EUA contra a startup de inteligência artificial Character.AI e o Google, alegando que a interação do filho com um chatbot teria contribuído para sua morte.

Segundo Megan Garcia, advogada e mãe do jovem, Sewell Setzer ficou emocionalmente dependente de "Daenerys", personagem criado pela IA da empresa, que oferecia "experiências antropomórficas, hipersexualizadas e assustadoramente realistas".

Em mensagens finais com o bot, ele teria afirmado: “Eu prometo que voltarei para você”. Pouco depois, o adolescente foi encontrado morto em sua casa.

Mãe processa Character.AI por suicídio do filho após interação com chatbot.(Imagem: Reprodução/Megan Garcia)

O advogado especialista em Crimes Cibernéticos Luiz Augusto D'Urso, do escritório D'Urso e Borges Advogados Associadosalertou que, se um caso similar ocorresse no Brasil, as famílias enfrentariam obstáculos legais para responsabilizar as empresas.

“Hoje, no Brasil, nós não temos nenhuma lei em vigor que regulamente a inteligência artificial, nós temos projetos de lei”, explicou D'Urso, ressaltando a lacuna de leis para lidar com o tema.

A falta de um arcabouço legal específico, segundo D'Urso, dificulta qualquer tentativa de responsabilização. “Nós teríamos uma dificuldade gigantesca em debater esse caso [...] e tentar responsabilizar as empresas”, apontou.

Para ele, sem uma regulamentação clara, seria "muito difícil" que a Justiça reconhecesse a responsabilidade de uma empresa em um caso dessa natureza.

D'Urso defende urgência na criação de leis que possam garantir uma interação segura para os usuários brasileiros, principalmente no que tange à proteção de crianças e adolescentes.

“A regulamentação é urgente e necessária, porque poderá trazer uma previsão legal e segurança jurídica da responsabilidade de todas essas empresas que produzem IA [...] podem causar danos emocionais, induzir a morte jovens, crianças, adolescentes e até adultos."

Outro ponto crucial mencionado pelo advogado é a ausência de previsão penal para responsabilizar empresas quando danos emocionais levarem a consequências graves, como a morte.

“Do ponto de vista da responsabilidade penal, seria muito difícil qualquer tipo de aplicação da previsão legal num caso como esse, em que uma máquina [...] acaba prejudicando emocionalmente um jovem a ponto dele tirar a própria vida”, avaliou D'Urso.

Ele sugere que, com a regulamentação, seja incluída a possibilidade de responsabilidade penal da pessoa jurídica nesses casos.

Além disso, o advogado destacou que a LGPD trata do tratamento de dados, mas não regulamenta o desenvolvimento e a atuação da inteligência artificial. Embora a ANPD - Autoridade Nacional de Proteção de Dados fiscalize questões de privacidade, a aplicação sobre o funcionamento ético e a segurança de interações com IAs ainda é um campo nebuloso.

D'Urso ressaltou a falta de casos semelhantes como referência no Brasil:

“Da responsabilidade civil, isso seria uma [...] questão inédita no Judiciário. Nós não temos precedente para dizer o que poderia acontecer. Mas nós também não temos lei hoje em vigor para dar segurança jurídica.”

“A internet conecta o mundo, mas nem toda plataforma produzida no exterior pode ser livremente utilizada por jovens no Brasil. [...] Há plataformas que não são adequadas para menores ou que nem deveriam existir”, afirmou D'Urso, frisando a importância de um controle rígido sobre as interações com essas tecnologias.

O caso nos Estados Unidos, segundo o advogado, é um alerta para que o Brasil adote medidas preventivas e regulatórias antes que ocorrências semelhantes impactem diretamente a sociedade brasileira.

Veja a entrevista completa com o advogado:

Entre a inovação e a segurança

O impacto das novas tecnologias sobre a saúde mental dos jovens coloca em debate a responsabilidade das empresas de IA e redes sociais. Algoritmos e personagens interativos, projetados para maximizar o engajamento, podem gerar laços emocionais intensos, resultando até em dependência.

O desafio jurídico está em definir até onde vai à responsabilidade dessas plataformas pelos efeitos psicológicos e sociais, especialmente ao lidar com o público infantojuvenil.  Afinal, como equilibrar inovação e segurança na era digital?

Veja mais no portal
cadastre-se, comente, saiba mais

Leia mais

Migalhas Quentes

Advogados defendem uso da IA no dia a dia: "é caminho sem volta"

12/8/2024
Migalhas Quentes

Senado debate regulamentação da inteligência artificial

11/6/2024
Migalhas Quentes

"Não podemos ter medo do novo", diz advogada sobre comercial com Elis

11/7/2023

Notícias Mais Lidas

"Vale-peru"? TJ/MT fixa R$ 10 mil de auxílio-alimentação em dezembro

19/12/2024

Bosch é condenada a pagar R$ 1,7 mi por fraude em perícias judiciais

19/12/2024

iFood é multada por designar representante hospitalizado em audiência

19/12/2024

PEC que limita supersalários de servidores é aprovada pelo Congresso

20/12/2024

MP/BA investiga Claudia Leitte por retirar "Iemanjá" de música

19/12/2024

Artigos Mais Lidos

Afinal, quando serão pagos os precatórios Federais em 2025?

19/12/2024

Atualização do Código Civil e as regras de correção monetária e juros para inadimplência

19/12/2024

5 perguntas e respostas sobre as férias coletivas

19/12/2024

A política de concessão de veículos a funcionários e a tributação previdenciária

19/12/2024

Julgamento do Tema repetitivo 1.101/STJ: Responsabilidade dos bancos na indicação do termo final dos juros remuneratórios

19/12/2024