Migalhas de Peso

Big techs, startups e a responsabilidade compartilhada na era da IA

O artigo aborda a crescente preocupação com a responsabilidade civil de empresas de tecnologia em casos de uso inadequado de inteligência artificial (IA).

13/11/2024

Com a expansão do uso de inteligência artificial (IA) em plataformas digitais, aumentam também os riscos de danos psicológicos e emocionais aos usuários, especialmente em casos que envolvem interações emocionais profundas. A recente tragédia de um adolescente norte-americano que, segundo relatos, teria sido influenciado ao suicídio por uma IA, suscita questões urgentes sobre até que ponto as empresas de tecnologia podem ser responsabilizadas por falhas de monitoramento e segurança. Além de analisar as possibilidades de responsabilização civil – tanto objetiva quanto subjetiva – este artigo explora superficialmente a possibilidade, ou até mesmo a necessidade, de uma regulamentação específica que torne as Big Techs e as Startups solidariamente responsáveis pelos danos causados, assegurando medidas preventivas eficazes.

1. Responsabilidade civil e possibilidades de imputação de culpa

No contexto do Direito brasileiro, a responsabilidade civil é discutida sob duas óticas principais: a responsabilidade objetiva e a responsabilidade subjetiva. Ambas possuem implicações específicas para casos envolvendo danos emocionais causados por Ias.

Para o Advogado especialista em compliance digital, Henrique Checchia, a responsabilização das Startups que comercializam tecnologias que envolvem IA e decisões automatizadas, pode ser considerada subjetiva, já que apenas mediante a prova de que a empresa ou plataforma de IA contribuiu diretamente para o dano, seja por ação ou omissão. No caso em análise, onde uma IA supostamente influenciou um adolescente ao suicídio, a responsabilidade subjetiva poderia ser fundamentada se fosse comprovado que a plataforma teve um comportamento ativo de incentivo ou que deixou de bloquear conteúdos ou respostas potencialmente prejudiciais. Isso poderia caracterizar negligência ou imprudência no tratamento dos dados e das interações dos usuários com a tecnologia. Assim, palavras suas, “as empresas que dispõem desse modelo de negócio, tanto as Big Techs quanto as Startups, deverão possuir medidas de cibersegurança das informações trafegadas, além de um constante monitoramento do uso da plataforma, sendo, caso necessário, a realização de plano de ação para mitigar impacto negativo ao consumidor”.

Já para o Prof. De Direito e Advogado mestre em Direito Digital, Leandro Nava, a depender do caso, a responsabilidade aplicada poderá ser inclusive a objetiva, dispensando a prova de culpa, exigindo apenas a demonstração do dano e do nexo causal entre o uso da IA e o evento ocorrido. Neste caso, se a plataforma falhou em adotar medidas de monitoramento e compliance digital, poderia ser diretamente responsabilizada por negligência em seu dever primordial e basilar de tutelar o usuário. “A ausência de um sistema robusto de proteção e supervisão aumenta consideravelmente o risco para os usuários, especialmente para os mais vulneráveis, justificando assim uma imputação de responsabilidade objetiva, devendo a criadores serem responsáveis por seus programas/sistemas/software etc”.

2. A necessidade de regulamentação da IA para prevenir riscos

A ausência de uma regulamentação específica para IA deixa uma lacuna que expõe os consumidores a riscos significativos. É essencial que as Big Techs e as Startups sejam obrigadas a implementar medidas de monitoramento e fiscalização contínuas de suas soluções de IA, assegurando que as tecnologias não causem danos psicológicos ou emocionais aos usuários, como por exemplo, a utilização de duplas autenticações para o uso da plataforma, monitoramento constante do ecossistema do software, criação de bloqueios, conscientização do uso da plataforma de forma ética e saudável, por meio de treinamentos, criação de política de uso e manuseio da Inteligência Artificial.

Já nos casos mais críticos, quando houver a constatação por parte do monitoramento que o usuário final possa estar em risco, deve existir um plano de ação, por meio de prompt que a IA possa operacionalizar para mitigar ou até evitar a perda.

No presente caso acima narrado, a IA deveria ter indicado ao jovem alternativas de tratamento psicológico, busca por ajuda de familiares, amigos, ou até mesmo a clínica especializada, desde que tivesse sido programado a identificar esse risco ou se a empresa tivesse uma gerência mais efetiva dos seus monitoramentos.

As grandes empresas de tecnologia que desenvolvem essas soluções de IA têm a obrigação de monitorar continuamente o uso de suas tecnologias, especialmente em interações que envolvam temas sensíveis. Se uma IA atua em uma área que pode influenciar psicologicamente o usuário, como interações simuladas de amizade ou apoio emocional, a falta de supervisão pode resultar em danos psicológicos profundos. A regulamentação deveria exigir que as Big Techs implementassem ferramentas de monitoramento ativo e regras claras de intervenção em casos de interações potencialmente perigosas.

As Big Techs e Startups que comercializam essas tecnologias também devem adotar políticas de privacidade e segurança robustas, com políticas de compliance digital que protejam o usuário de riscos previsíveis. A regulamentação deve obrigar que empresas que atuam com IA implementem canais de atendimento e sistemas de suporte 24horas ininterruptas, para que o usuário ou seus familiares, possam relatar interações nocivas e solicitar uma revisão.

Para evitar riscos de influência emocional negativa, as empresas devem ser obrigadas a realizar auditorias frequentes e atualizações em suas tecnologias de IA. Essas auditorias avaliariam como a IA interage com os usuários e se as respostas fornecidas promovem um ambiente seguro. A regulamentação deve exigir essas auditorias e punições rigorosas para empresas que deixem de garantir a segurança e o bem-estar do usuário.

3. Responsabilidade solidária entre Big rechs e startups na comercialização de IA

Outra questão relevante é a possibilidade de se imputar uma responsabilidade solidária entre as Big Techs, que desenvolvem as soluções de IA, e as Startups, que as comercializam e personalizam para o usuário final.

No caso específico, a IA responsável pela interação com o adolescente poderia ter sido desenvolvida por uma Big Tech e, posteriormente, implementada por uma Startup, que personalizou a tecnologia para a interação. A falta de regulamentação clara para esse tipo de parceria deixa o consumidor vulnerável e sem garantias de segurança, podendo em momentos de fragilidade, sofrer gravíssimos prejuízos e danos.

A responsabilidade solidária tem como objetivo assegurar que tanto as empresas desenvolvedoras quanto as comercializadoras da IA compartilhem a responsabilidade por qualquer falha de segurança ou dano ao consumidor. Com uma regulamentação específica, seria possível garantir que ambas as partes adotassem medidas de compliance, e que ambas pudessem ser responsabilizadas em casos de danos, como o ocorrido nos Estado Unidos da América. A responsabilidade solidária é, portanto, um mecanismo que poderia induzir tanto as Big Techs quanto as Startup a agirem de forma preventiva e cuidadosa, pois ambas compartilhariam as consequências jurídicas de uma falha na proteção do usuário.

4. Estabelecendo o nexo causal em casos de influência da IA

No âmbito jurídico, a presença de um nexo causal claro entre a atuação da IA e o dano sofrido pelo adolescente é essencial para fundamentar a responsabilidade da empresa. Em casos de influências psicológicas, como o suicídio supostamente incitado por interações com a IA, o nexo causal poderia ser comprovado se houvesse registros de conversas que indicassem um comportamento de influência psicológica nociva. A regulamentação deve, portanto, exigir que as empresas armazenem esses dados de interação de forma segura e transparente, permitindo uma análise precisa do impacto da IA sobre o comportamento do usuário.

Conclusão

A análise da responsabilidade civil de empresas que operam com IA, especialmente em casos que envolvem interações emocionais e psicológicas profundas, exige não apenas uma interpretação cuidadosa do conceito de culpa, por envolver a exposição e utilização de dados pessoais, que podem até ser considerados sensíveis pelas plataformas, mas também uma regulamentação específica para IA.

A responsabilidade objetiva, aliada à possibilidade de responsabilidade solidária entre Big Techs e Startup, pode representar uma solução jurídica eficaz para garantir que as empresas adotem, obrigatoriamente, medidas rigorosas de compliance digital e segurança.

Além disso, a definições e limitações claras das responsabilidades entre Big Techs e Startup são essenciais para um ambiente de segurança jurídica. A regulamentação deve estabelecer os limites das obrigações de cada parte, considerando que as Big Techs têm um papel fundamental no desenvolvimento e na supervisão das tecnologias, enquanto as Startup, ao comercializarem e personalizarem as soluções, assumem a responsabilidade pela sua adequação ao usuário final, inclusive seu monitoramento e atualização. Essa divisão de responsabilidades pode trazer mais segurança aos consumidores e assegurar que todos os envolvidos tenham um papel ativo na proteção contra potenciais danos.

Portanto, a regulamentação é essencial para proteger os consumidores e assegurar que as empresas de tecnologia adotem práticas responsáveis e transparentes. Estabelecer normas que imponham padrões elevados de segurança e monitoramento nas tecnologias de IA evitará tragédias como a do adolescente, promovendo uma atuação ética e preventiva por parte das empresas. Essa abordagem regulatória não apenas incentiva a inovação tecnológica de forma segura, mas também cria um ambiente de proteção aos direitos dos consumidores, beneficiando a sociedade como um todo.

Henrique Checchia Maciel
Advogado com expertise em Direito Digital, certificado em Compliance Anticorrupção, Bacharel em Comunicação Social, Membro da Comissão Especial de Privacidade, Proteção de Dados e IA da OAB/SP.

Leandro Caldeira Nava
Advogado, Mestre em Direito Digital, Professor de Pós-Graduação da UPM - Universidade Presbiteriana Mackenzie, CEO da NAVA Sociedade de Advocacia, Diretor da CAASP 2019/2021.

Veja mais no portal
cadastre-se, comente, saiba mais

Artigos Mais Lidos

Afinal, quando serão pagos os precatórios Federais em 2025?

19/12/2024

Discriminação nos planos de saúde: A recusa abusiva de adesão de pessoas com TEA

19/12/2024

Planejamento sucessório e holding patrimonial: Cláusulas restritivas societárias

20/12/2024

Decisão importante do TST sobre a responsabilidade de sócios em S.A. de capital fechado

20/12/2024

As perspectivas para o agronegócio brasileiro em 2025

20/12/2024