COLUNAS

  1. Home >
  2. Colunas >
  3. Migalhas de IA e Proteção de Dados >
  4. O uso de Inteligência Artificial nas eleições 2024 - Parte 2 (entendendo algumas propostas de regulação de Inteligência Artificial)

O uso de Inteligência Artificial nas eleições 2024 - Parte 2 (entendendo algumas propostas de regulação de Inteligência Artificial)

sexta-feira, 17 de maio de 2024

Atualizado em 16 de maio de 2024 13:16

A alteração da resolução 23.610 de 2019, com o pacote de 12 resoluções aprovadas pelo Tribunal Superior Eleitoral, apresentou alguns pontos relativos ao uso de IA no processo eleitoral, como: proibição de deepfakes; obrigação de explicitar o uso de IA na propaganda eleitoral; proibição de simulação de diálogo entre candidato e qualquer outra pessoa; responsabilização das empresas que não retirarem imediatamente do ar conteúdos com desinformação ou com discurso de ódio.

Essas regras são interessantes quando for detectada o uso de IA para criação de conteúdo eleitoral e vídeos sem a devida informação ao eleitor. Dessa forma, tal conduta já estará prevista nas resoluções aprovadas e haverá uma respectiva consequência, buscando garantir a democracia.

Mas a pergunta que não foi respondida ainda é como todas estas determinações legais serão fiscalizadas?

Provavelmente não, por isso não é possível dizer que o eleitor estará seguro com tais resoluções, uma vez que será muito difícil identificar este conteúdo gerado pela IA ou o uso de chatbots. Além disso, mesmo que seja identificado o uso indevido deste conteúdo e o responsável por ele, o prejuízo já terá ocorrido, pois os vídeos polêmicos e impactantes são propagados em uma elevada velocidade, sendo que o microtargeting garante que o conteúdo chegue aos destinatários mais suscetíveis a compartilhar tal conteúdo e confirmar as suas convicções. Sobre a importância da proteção de dados e a prática denominada deepfake, consulte nossa coluna.1

De fato, a criação de deepfake está associada à técnica de deep learning, a qual se assemelha ao sistema neural humano, adaptando-se e aprendendo por uma rede de dados. No entanto, tudo isso somente é viável a partir de dados pessoais que são utilizados por uma grande quantidade de software de código aberto, que chegam a resultados cada vez mais precisos.

Esta preocupação não está atormentando somente a sociedade brasileira. Mas Nos Estados Unidos, em 30 de outubro de 2023, o Presidente Joe Binden editou uma ordem executiva impondo alguns requisitos para proteger os americanos e as liberdades individuais dado ao crescente uso da IA. Nesta carta ficaram estabelecidas tais medidas:2

- que as grandes empresas que usam IA informem sobre os testes que fizeram antes de disponibilizar tal ferramenta ao público, bem como sobre os riscos que possam estar associados;

- o National Institute of Standards and Technology vai estabelecer critérios para se alcançar segurança e confiabilidade nos produtos e serviços que usem IA;

- a fim de proteger os americanos contra conteúdo enganosos e fraudulentos, o Department of Commerce estabelecerá diretrizes para autenticação de conteúdo criado totalmente por IA, bem como a indicação disto inserindo uma marca d'água para indicar que o conteúdo foi gerado por IA, o que acabou influenciando o substitutivo do PL 2338 que a Cristina mencionou;

- além de atenção redobrada à cybersegurança. 

Nesta ordem executiva, o Presidente norte-americano sugere que o Congresso norte-americano elabore uma lei específica para assegurar a privacidade dos americanos, já que para treinar os sistemas que usam IA, as empresas precisam de informações diversas.

Nos Estados Unidos, o Algorithmic Accountability Act de 2022 traz uma preocupação com os sistemas de decisões automatizadas, notadamente com os vieses dos algoritmos (exigindo o relatório de impacto), mas não menciona a IA generativa.

Na Europa, avançou a aprovação da proposta de Regulamento Geral sobre IA, conhecido como Artificial Inteligence Act, no art. 52, impõe-se o dever de informar que o sistema usa IA, além disso, foi feita menção expressa ao uso de chatbots e deepfakes: 

Users of an AI system that generates or manipulates image, audio or video content that appreciably resembles existing persons, objects, places or other entities or events and would falsely appear to a person to be authentic or truthful ('deep fake'), shall disclose that the content has been artificially generated or manipulated. 

Portanto, acredito que a questão ainda precisa ser melhor desenhada pelos reguladores, mas a informação é o melhor remédio, ou seja, informar que o conteúdo foi gerado por IA.

Sobre o tema, Cíntia Rosa Pereira de Lima, Cristina Bernardo de Oliveira e Evandro Eduardo Seron Ruiz3 analisam estas propostas que inspiraram a proposta do Senador Astronauta Marcos Pontes ao Projeto de Lei n. 2338/23, o qual possui um dispositivo que exige a presença de marca d'água em todo conteúdo gerado por IA (quer texto, quer imagem), tornando-se impraticável garantir a efetivação de tal norma.

Isto porque não há uma forma de organizar a fiscalização e a identificação de todos o conteúdo gerado por IA, bem como sua efetiva remoção a tempo hábil. Assim, pode gerar uma falsa sensação de que o conteúdo sem a marca d'água não teria sido criado por IA, quando, na verdade, não foi identificado como tal, e continuará impactando as pessoas que irão confiar na credibilidade na originalidade do conteúdo que não está identificado.

Quanto à obrigatoriedade de remoção de discurso de ódio, nossa coluna já tratou do tema em algumas ocasiões.4 O grande problema é a ausência do que seria o discurso de ódio quer na doutrina, quer na jurisprudência, por exemplo, pornografia enquadra-se como discurso de ódio? Há muitos que defendem que sim. O risco destes conceitos abertos é o fomento a arbitrariedades, o que coloca em xeque um princípio democrático protegido constitucionalmente: a liberdade de expressão.

Por outro lado, o discurso de ódio e condutas antidemocráticas afetam o nosso processo eleitoral e atingem as instituições democráticas. O discurso de ódio viola direitos fundamentais e podem cercear a liberdade de ir e vir, pois um grupo constrangido pode se sentir coagido a não frequentar determinados espaços.

Todavia, a remoção de perfis não seria a medida mais adequada, pois esses indivíduos encontrariam outras plataformas digitais para poderem se expressar e o ódio será cada vez maior.

Por fim, deve-se ter cuidado para não fomentar o que Karl Loewenstein denominou de democracia militante, que afirmou que o nazismo se utilizou dos princípios e garantias presentes em Estados Democráticos de Direito para poderem propagar as suas ideias, logo, ao se retornar à democracia, ela deveria utilizar instrumentos empregados por regimes totalitários ou autoritários, para evitar que ressurgissem.

Em suma, trata-se do dilema secular entre a liberdade e a segurança. E, a grande pergunta que se deve fazer como cidadãos é: quanto de liberdade estamos dispostos a abrir mão para garantir a segurança?

No Brasil, há algumas tentativas legislativas para regulamentar o uso da IA (PL 5.051/2019, 21/2020 e 872/2021), de forma geral estes projetos se fundamentam na regra de responsabilidade civil com base na culpa, estabelecem princípios e fundamentos, o que já constam da Estratégia Brasileira de IA. Então, em fevereiro de 2022, foi instituida uma Comissão de Juristas no Senado Federal para apresentarem um substitutivo, apresentando uma primeira versão do substitutivo em 07 de dezembro de 2022.

Assim, o PL 2.338/2023 é fruto dos trabalhos desta Comissão, apresentado ao Senador Federal Rodrigo Pacheco com objetivo de regulamentar a IA no Brasil. Uma das principais características do projeto é a proposta de uma estrutura institucional de supervisão e controle, que visa dar segurança jurídica a quem inova e desenvolve tecnologia.

Mas é impossível o legislador prever e antever os possíveis usos e aplicações da IA, por isso, creio eu que o melhor caminho seja uma lei geral e principiológica, que indique os fundamentos para o desenvolvimento e uso da IA, bem como direitos básicos dos usuários e a criação de um órgão regulador para assegurar a efetividade de todo o sistema. Entretanto cada setor específico, com a participação deste órgão a ser criado, como o setor de eleições, de automação de veículos e etc..., estabelecerão regras específicas e pertinentes às suas particularidades.

Mas a efetiva solução está realmente na educação digital.

__________

1 NASCIMENTO, Ingrid do; OLIVEIRA, Cristina Godoy Bernardo de. Deepfake nas eleições e a importância da proteção de dados. Disponível aqui.

3 CARDOSO, Thaís. USP Analisa #126: Preocupação com inteligência artificial nas eleições é necessária, mas tecnologia também beneficia eleitor. Disponível em: USP Analisa #126: Preocupação com inteligência artificial nas eleições é necessária, mas tecnologia também beneficia eleitor - Jornal da USP.

4 LIMA, Cíntia Rosa Pereira de; BATISTA, Letícia Soares. Elon Musk VS Alexandre de Moraes e o necessário debate sobre regulação das redes sociais. Disponível aqui.