MIGALHAS DE PESO

  1. Home >
  2. De Peso >
  3. Uso indevido da IA nas eleições e como identificar

Uso indevido da IA nas eleições e como identificar

Os riscos do uso da IA nas eleições, as regulamentações do TSE e a necessidade de uso responsável para proteger a integridade eleitoral.

sexta-feira, 11 de outubro de 2024

Atualizado às 09:07

IA - Inteligência Artificial generativa pode representar um grande perigo no processo eleitoral. Exemplos em outros países não faltam, e atenção é a melhor estratégia para lidar com esse desafio.

O ano de 2024 é crucial, com eleições municipais no Brasil e mais de 50 países indo às urnas, representando quase metade da população mundial.

No Brasil, a tecnologia já faz parte dos processos eleitorais, como a votação eletrônica, que é uma ferramenta valiosa para tornar o processo mais eficiente e seguro. No entanto, os avanços recentes em IA, especialmente a IA generativa, como o OpenAI - ChatGPT e o Microsoft - Copilot, podem ter um impacto sem precedentes nas eleições.

A preocupação com o uso dessas tecnologias nas eleições municipais resultou em uma resolução aprovada pelo TSE, em fevereiro deste ano. A medida estabelece regras para a utilização da IA em campanhas eleitorais, exigindo a identificação do uso de tecnologia em materiais de divulgação e proibindo o uso de deepfakes, uma técnica que permite a substituição de rostos em vídeos, por exemplo.

A tendência é que essa preocupação aumente com a aproximação do pleito eleitoral, principalmente devido a casos ocorridos em outros países, onde a IA foi usada para manipular a opinião pública. Tais situações podem servir de alerta para os brasileiros que irão às urnas em 6 de outubro.

Na África do Sul, deepfakes foram utilizados em vídeos que indicavam falsamente o apoio do ex-presidente dos EUA, Donald Trump, a candidatos locais. No Paquistão, a imagem de Trump foi novamente manipulada para sugerir que ele libertaria o ex-primeiro-ministro Imran Khan da prisão.

Com a proximidade das eleições no Brasil, o risco dessas manipulações cresce, enquanto o tempo para desmentir tais conteúdos diminui. Em Bangladesh, por exemplo, deepfakes foram usados para simular a desistência de dois candidatos no dia da eleição. Em Taiwan, ocorreu algo semelhante, com vídeos falsos de apoio empresarial a candidatos. Na Índia e na Indonésia, vídeos com vozes e imagens de pessoas falecidas foram utilizados para manipular eleitores.

Todos esses casos poderiam ser considerados crimes no Brasil, de acordo com as regras do TSE, o que poderia resultar na cassação de candidaturas ou mandatos.

Por outro lado, a IA também pode ser usada para melhorar a eficiência eleitoral e o engajamento dos eleitores. No entanto, sua capacidade de criar deepfakes, lançar ataques cibernéticos e espalhar desinformação ameaça a integridade do processo democrático e a confiança pública.

"O advento da IA generativa pode ser um momento decisivo para a desinformação e o discurso de ódio - minando a verdade, os fatos e a segurança, adicionando uma nova dimensão à manipulação do comportamento humano e contribuindo para a polarização e a instabilidade em grande escala", afirmou o Secretário-Geral da ONU, António Guterres, em discurso no Conselho de Segurança.

Então, como podemos limitar os danos da desinformação gerada por IA? Um dos primeiros passos é adotar medidas de rotulagem. Essas medidas podem incluir o uso de metadados com informações sobre a criação do conteúdo ou a aplicação de marcas d'água invisíveis que identifiquem o modelo de IA usado.

Plataformas como X (antigo Twitter) e Meta já estão implementando rótulos visíveis para conteúdos gerados por IA, a fim de comunicar sua credibilidade aos usuários. Esses rótulos podem fornecer informações explícitas sobre a origem do conteúdo ou servir como indicadores contextuais, sem necessariamente avaliar sua veracidade.

Entretanto, a rotulagem tem seus limites. Quando algo é rotulado como "falso", isso pode levar à suposição equivocada de que o que não está rotulado é verdadeiro e confiável. Além disso, confiar apenas em empresas privadas para rotular conteúdo pode minar a confiança pública nesses sistemas.

Outra abordagem é o desenvolvimento de ferramentas de detecção de conteúdo gerado por IA, que analisam características linguísticas e estilísticas para identificar padrões. Contudo, essas ferramentas ainda são imperfeitas, muitas vezes resultando em falsos positivos e tendo dificuldades em acompanhar a rápida evolução da IA.

Oren Etzioni, professor emérito da Universidade de Washington, destacou que estamos em uma "corrida armamentista". Segundo ele, "chegamos a um ponto em que é extremamente difícil fazer essa avaliação sem o uso de modelos de IA treinados para isso", ou seja, IA para identificar IA.

Atualmente, o acesso a essas ferramentas de detecção é restrito, muitas vezes disponível apenas para desenvolvedores e governos.

Apesar dos desafios, é importante manter uma visão otimista sobre o potencial da IA, embora seja inegável que seu uso indevido nas eleições represente um grande problema.

Nesse sentido, uma ferramenta gratuita e sem fins lucrativa chamada TrueMedia.org foi desenvolvida para ajudar jornalistas a identificar conteúdos manipulados. A plataforma analisa materiais utilizando IA e fornece uma estimativa da probabilidade de o conteúdo ser falso ou manipulado.

A tecnologia pode ser uma aliada poderosa, mas o uso responsável da IA é fundamental para garantir a integridade das eleições e da democracia.

Sthefano Cruvinel

VIP Sthefano Cruvinel

Referência em Tecnologia, considerado Amicus Curiae nos Tribunais Superiores. Exp. Inteligência Probatória. Esp. em Contratos pela FGV e BI, BA e IA com 52 certificados internacionais (Duke, Univ-EUA)

AUTORES MIGALHAS

Busque pelo nome ou parte do nome do autor para encontrar publicações no Portal Migalhas.

Busca