Migalhas de IA e Proteção de Dados

O uso de Inteligência Artificial nas eleições 2024 – Parte I (Entendendo algumas ferramentas de Inteligência Artificial Generativa)

Os autores fazem uma análise das principais ferramentas tecnológicas com base em Inteligência Artificial Generativa a fim de evidenciar seus benefícios e alertar para os perigos do uso maléfico destas ferramentas.

10/5/2024

As eleições de 2024 sinalizam diversos desafios a serem suplantados pelo regulador. Desde os acontecimentos da Cambridge Analytica em 2018, houve um avanço significativo da tecnologia, em especial a Inteligência Artificial. Muito se deve ao fato da pandemia ter acelerado a digitalização da atual sociedade informacional1. Sobre esta reflexão, nesta coluna Migalhas de IA e Proteção de Dados, Adalberto Simão Filho2 alerta para o fato do crescente banco de dados de eleitores em razão das pesquisas eleitorais.

Agora não é tão somente o fato perigoso de acesso indevido aos dados pessoais de eleitores e sua perfiliação para enviar mensagens a fim de influenciar no seu processo decisório que ameaça o processo democrático, o que também já foi debatido em alguns artigos desta coluna3. Além disso, o uso indevido da Inteligência Artificial já tem chamado a atenção como o uso do ChatGPT4 e outras ferramentas.5

É importante destacar que tais ferramentas não são intrinsecamente ruins como salienta Demi Getscheko,6 neste sentido, deve-se buscar alguns parâmetros para a utilização sustentável destas ferramentas, sem que afetem as liberdades individuais e os fundamentos da democracia.

Alguns exemplos destas ferramentas podem ser entendidos a partir do que Evandro Eduardo Seron Ruiz alertou no USP Analisa de 26 de abril de 2024.7 A capacidade de geração de texto pelas denominadas IAs Generativas (IAGs) como o ChatGPT advém de vários tipos de processamentos sobre um grande volume de textos digitais coletados na web. Mais especificamente, essas IAGs para textos, chamadas tecnicamente de grandes modelos de linguagem (do termo inglês, Large Language Models, ou LLM), capturam milhões de textos na internet e, a grosso modo, calculam a probabilidade de ocorrência das próximas palavras dada uma palavra sugerida. Exemplificando essa metodologia de modo sumário, sem rigor técnico, essas IAGs tem um funcionamento parecido ao encontrado nos editores de texto de celulares que, muitas vezes, sugerem a próxima palavra a ser digitada. No entanto, essas IAs calculam as próximas palavras as centenas, ou seja, geram textos longos e, se bem guiadas pelo usuário, textos contextualizados.

Convém notar que essas novas ferramentas generativas, tanto para gerar textos, imagens e áudios, lançadas a partir de 2022, ainda nem completaram 2 anos de idade, ou seja, ainda estão na sua primeira infância e já se pode notar uma enorme quantidade de usuários destas tecnologias.

Por exemplo, nestas próximas eleições municipais, os eleitores podem usar essas tecnologias, para, resumir os programas de seus candidatos e até compará-los, buscar informações sobre os partidos e os candidatos, talvez um histórico de sua vida política pregressa e de suas convicções.

Considerando os interesses do candidato, tais tecnologias podem ser usadas para gerar material para seus discursos ou manifestações em suas redes sociais. Além disso, essas IAs generativas textuais podem auxiliar na elaboração das propostas de governo, na geração de discursos, como também para a geração de material publicitário, entre outras finalidades. Veja que esta aplicação das IAGs pode representar uma economia relevante com gastos de campanha eleitoral e reduzir o custo com assessores e profissionais de propaganda.

Além disso, essas IAGs voltadas para texto contam com um recurso chamado Aprendizado por Reforço que analisam as interações do usuário com a IA e podem gerar novas versões do texto que respondam aos questionamentos ou sugestões e necessidades do usuário.

Com todos esses recursos destas IAGs podemos pensar que um candidato possa criar uma máquina de campanha para as redes sociais. Num primeiro momento essa máquina produzirá propagandas cujos textos sejam recortes de seu programa de governo e as imagens ou vídeos produzidos artificialmente ofereçam suporte ao texto. Poderia, inclusive, ser inserido áudios que reproduzam a voz do candidato. Num momento subsequente, essa máquina de campanha, ao analisar os comentários dos seguidores do candidato, poderia gerar outros textos, imagens, vídeos e áudios que agradassem mais o público alvo, tudo isso é possível a partir do recurso de avaliação e correção de rumos da técnica de Aprendizado por Reforço incluída nessas IAGs.

Com um uso ético e seguro destas tecnologias, pode-se chegar a um equilíbrio maior de forças e exposição entre os candidatos, pensando que o candidato com menor condições financeiras para gastar na campanha pode, em tese, fazer sua campanha com baixo custo usando os canais das redes sociais e que, caso isso ocorra, esse movimento poderá implicar num fortalecimento da democracia pela oportunidade de produção de material que essas IAs trarão a todos os partícipes de um pleito.

Neste sentido, a promoção do uso amplo destas tecnologias para aumentar a produtividade das campanhas eleitorais e, quiçá, torná-las mais baratas seria uma alternativa para que o povo brasileiro não continue arcando com os custos exorbitantes das campanhas eleitorais cujo fundo público este ano é de RS 4,9 bilhões.8

Boa parte deste recurso poderia ser melhor empregada para a educação digital, para estimular e fortalecer o uso consciente das redes sociais e, como consequência, teríamos uma população educada e empoderada sim para dissuadir esses criminosos digitais.

Entretanto, infelizmente, existe um receio real de que tais ferramentas possam ser utilizadas para a geração e veiculação de notícias enganosas. Toda ferramenta, toda criação, toda invenção nova sempre pode ser usada para alguma finalidade não esperada, e neste caso, pode sim ser usada para enganar, burlar, o eleitor.

A alteração da Resolução 23.610 de 2019, com o pacote de 12 resoluções aprovadas pelo Tribunal Superior Eleitoral, apresentou alguns pontos relativos ao uso de IA no processo eleitoral, como: proibição de deepfakes; obrigação de explicitar o uso de IA na propaganda eleitoral; proibição de simulação de diálogo entre candidato e qualquer outra pessoa; responsabilização das empresas que não retirarem imediatamente do ar conteúdos com desinformação ou com discurso de ódio.

Essas regras são interessantes quando for detectada o uso de IA para criação de conteúdo eleitoral e vídeos sem a devida informação ao eleitor. Dessa forma, tal conduta já estará prevista nas resoluções aprovadas e haverá uma respectiva consequência, buscando garantir a democracia.

Por outro lado, não é possível dizer que o eleitor estará seguro, uma vez que será muito difícil identificar este conteúdo gerado pela IA ou o uso de chatbots. Além disso, mesmo que seja identificado o uso indevido deste conteúdo e o responsável por ele, o prejuízo já terá ocorrido, pois os vídeos polêmicos e impactantes são propagados em uma elevada velocidade, sendo que o microtargeting garante que o conteúdo chegue aos destinatários mais suscetíveis a compartilhar tal conteúdo e confirmar as suas convicções.

Portanto, a real proteção que pode se dar à população é assegurando e fortalecendo medidas de transparência e de educação digital. Na próxima coluna, continuaremos o debate analisando algumas propostas regulatórias norte-americanas que tem influenciado o legislador brasileiro.

__________

1 OLIVEIRA, Cristina Godoy Bernardo de; LIMA, Tiago Augustini de; RODRIGUES, Pedro Sberni. Eleições municipais, LGPD e pandemia: uma combinação imprevisível. Disponível aqui.

2 SIMÃO FILHO, Adalberto. Por quem os sinos dobram - A (im)possibilidade de utilização algorítmica e inteligência artificial na formação do plano amostral de pesquisas eleitorais. Disponível aqui.

3 LIMA, Cíntia Rosa Pereira de; SOUSA, Maria Eduarda Sampaio de. LGPD e combate às fake news. Disponível aqui; DONAIKA, Kaleo; OLIVEIRA, Cristina Godoy Bernardo de. O acordo de cooperação técnica assinado entre o TSE e a ANPD. Disponível aqui; dentre outros.

4 RUIZ, Evandro Eduardo Seron. A nossa Língua Portuguesa está em risco de extinção? Disponível aqui.

5 OLIVEIRA, Cristina Godoy Bernardo de; LIMA, Tiago Augustini de. O Uso do ChatGPT e do Gemini no fazer jurídico. Disponível aqui.

6 NETMundial e o Marco Civil da Internet: a necessidade de ambos. In: DE LUCCA, Newton; SIMÃO FILHO, Adalberto; LIMA, Cíntia Rosa Pereira de. Direito & Internet. Vol. III: Marco civil da internet (Lei nº 12.965/2014). São Paulo: Quartier Latin, 2015. pp. 101 – 106.

7 CARDOSO, Thaís. USP Analisa #126: Preocupação com inteligência artificial nas eleições é necessária, mas tecnologia também beneficia eleitor. Disponível em: USP Analisa #126: Preocupação com inteligência artificial nas eleições é necessária, mas tecnologia também beneficia eleitor – Jornal da USP

Veja mais no portal
cadastre-se, comente, saiba mais

Coordenação

Cintia Rosa Pereira de Lima, professora de Direito Civil da Faculdade de Direito da USP Ribeirão Preto – FDRP. Doutora em Direito Civil pela Faculdade de Direito da USP com estágio na Ottawa University (Canadá) com bolsa CAPES - PDEE - Doutorado Sanduíche e livre-docente em Direito Civil Existencial e Patrimonial pela Faculdade de Direito de Ribeirão Preto (USP). Pó-doutora em Direito Civil na Università degli Studi di Camerino (Itália) com fomento FAPESP e CAPES. Líder e Coordenadora dos Grupos de Pesquisa "Tutela Jurídica dos Dados Pessoais dos Usuários da Internet" e "Observatório do Marco Civil da Internet", cadastrados no Diretório de Grupos de Pesquisa do CNPq e do Grupo de Pesquisa "Tech Law" do Instituto de Estudos Avançados (IEA/USP). Presidente do Instituto Avançado de Proteção de Dados – IAPD - www.iapd.org.br. Associada Titular do IBERC - Instituto Brasileiro de Responsabilidade Civil. Membro fundador do IBDCONT - Instituto Brasileiro de Direito Contratual. Advogada.

Cristina Godoy Bernardo de Oliveira, professora doutora da Faculdade de Direito de Ribeirão Preto – Universidade de São Paulo desde 2011. Academic Visitor da Faculty of Law of the University of Oxford (2015-2016). Pós-doutora pela Université Paris I Panthéon-Sorbonne (2014-2015). Doutora em Filosofia do Direito pela Faculdade de Direito da USP (2011). Graduada pela Faculdade de Direito da USP (2006). Líder do Grupo de Pesquisa Direito, Ética e Inteligência Artificial da USP – CNPq. Coordenadora do Grupo de Pesquisa "Tech Law" do Instituto de Estudos Avançados (IEA/USP). Membro fundador do Instituto Avançado de Proteção de Dados – IAPD.

Evandro Eduardo Seron Ruiz, professor Associado do Departamento de Computação e Matemática, FFCLRP - USP, onde é docente em dedicação exclusiva. Atua também como orientador no Programa de Pós-graduação em Computação Aplicada do DCM-USP. Bacharel em Ciências de Computação pela USP, mestre pela Faculdade de Engenharia Elétrica da UNICAMP, Ph.D. em Electronic Engineering pela University of Kent at Canterbury, Grã-Bretanha, professor lLivre-docente pela USP e pós-Doc pela Columbia University, NYC. Coordenador do Grupo de Pesquisa "Tech Law" do Instituto de Estudos Avançados (IEA/USP). Membro fundador do Instituto Avançado de Proteção de Dados – IAPD.

Nelson Rosenvald é advogado e parecerista. Professor do corpo permanente do Doutorado e Mestrado do IDP/DF. Pós-Doutor em Direito Civil na Università Roma Tre. Pós-Doutor em Direito Societário na Universidade de Coimbra. Visiting Academic na Oxford University. Professor Visitante na Universidade Carlos III, Madrid. Doutor e Mestre em Direito Civil pela Pontifícia Universidade Católica de São Paulo – PUC/SP. Presidente do Instituto Brasileiro de Estudos de Responsabilidade Civil – IBERC. Foi Procurador de Justiça do Ministério Público de Minas Gerais.

Newton De Lucca, professor Titular da Faculdade de Direito da USP. Desembargador Federal, presidente do Tribunal Regional Federal da 3ª Região (biênio 2012/2014). Membro da Academia Paulista de Direito. Membro da Academia Paulista de Letras Jurídicas. Membro da Academia Paulista dos Magistrados. Vice-presidente do Instituto Avançado de Proteção de Dados.