Migalhas de IA e Proteção de Dados

Deepfake nas eleições e a importância da proteção de dados

Com a finalidade de adulterar vídeos e áudios por meio de inteligência artificial, os deepfakes causaram diversos impactos nas últimas eleições, tanto mundiais, quanto do Brasil, mostrando-se necessário analisar a ótica de proteção de dados e regulação jurídica.

2/2/2024

O deepfake se trata da utilização de inteligência artificial (IA) para que esta adultere sons e imagens, produzindo vídeos de conteúdo enganoso. É possível, por meio deste instrumento, alterar a movimentação dos lábios ou, ainda, colocar trechos de uma fala em um vídeo totalmente diverso, modificando o que determinada pessoa havia dito. Percebe-se que, devido ao deepfake possuir grande potencial de espalhar notícias falsas, as famigeradas fake news, ele foi amplamente explorado nas eleições, como nas dos Estados Unidos em 2016 e, principalmente, em 2020, além de ocorrer nas do Brasil, em 2022.

Para a criação de deepfake, aplica-se a técnica de deep learning, a qual se trata de reprodução de um sistema neural humano artificial, adaptando-se e aprendendo por uma rede de dados. Nesse sentido, o programador utiliza de uma grande quantidade de software de código aberto e, a partir do conteúdo fornecido, os algoritmos da inteligência artificial ficarão um contra o outro, produzindo um loop infinito de feedback, para chegar em resultados cada vez mais precisos. Assim, por meio de fotos e vídeos que determinado indivíduo aparece, a IA consegue aprender como ele se comporta, a partir de características faciais, gestos, voz, dentre outras especificidades.

Nas eleições dos Estados Unidos, em 2016, que elegeu o Donald Trump para presidente, os deepfakes estiveram muito presentes. Um caso notório que ocorreu foi um vídeo em que o ex-presidente Barack Obama estaria chamando o candidato Donald Trump de “um completo merda”. Entretanto, foi revelado que isto não foi dito por Obama, mas sim pelo diretor Jordan Peele, concluindo-se que, na verdade, tal fala foi inserida em um vídeo verídico do ex-presidente. Ainda, nas eleições do referido país em 2020, o personagem político conhecido por proferir diversas fake news, Donald Trump, veiculou em suas redes sociais, inúmeros vídeos manipulados para atacar seu adversário, Joe Biden, culminando na criação da Microsoft de um software especializado em identificar deepfakes.

Ao se analisar o panorama do Brasil, o caso mais conhecido de deepfake nas eleições de 2022 foi utilizado em vídeo da apresentadora do Jornal Nacional, Renata Vasconcellos, o qual foi adulterado para evidenciar uma falsa pesquisa de intenção de votos. Neste caso, a jornalista afirmava que o candidato Jair Bolsonaro estava à frente na pesquisa do Ipec, quando, de fato, era ao contrário: o candidato Luiz Inácio Lula da Silva que estava liderando a pesquisa. Existiram, também, diversos outros casos de relevância, como o que William Bonner, âncora do referido jornal, estaria chamando os candidatos à presidência de “bandidos” ou, ainda, um áudio falso em que o candidato à presidência, Ciro Gomes, acusava a existência de fraude eleitoral, com a ciência das Forças Armadas.

Os impactos da propagação de deepfakes no cenário de eleições são evidentes e, primordialmente, preocupantes. Quando algum candidato a determinado cargo político é vítima de deepfake, isso pode alterar completamente o rumo das eleições, pois podem atribuir a ele qualquer fala inverídica que desejarem, incluindo falas racistas, misóginas ou homofóbicas, culminando na perda de diversos eleitores.

Um grande aliado na propagação desses vídeos ou áudios alterados é o fato de que diversos indivíduos não checam a veracidade da informação, visto que, por se tratar, supostamente, da voz e imagem da pessoa, atribuem uma percepção de autenticidade e acreditam não haver necessidade de averiguar a situação concreta. Soma-se, ainda, o fato de que estes indivíduos compartilham com diversas outras pessoas ou grupos, o que ocasiona em um alto índice de compartilhamento e, portanto, maior alcance dessas inverdades.

O que se observa atualmente é que não existe legislação específica que trate sobre o assunto, visto que se trata de ferramenta relativamente recente, assim como diversos tipos de inteligência artificial. Por mais que exista o Marco Civil da Internet e a Lei Geral de Proteção de Dados, que visam proteger o uso de tecnologia digital no Brasil, tais situações evidenciam a necessidade de se proteger os dados pessoais, para que sua ocorrência seja cada vez menor.

Nesse sentido, os arts. 9º e 9º-A da Resolução 23610/2019 do TSE, que regulou a propaganda eleitoral nas eleições de 2022, preveem penalidades para a desinformação nas propagandas, situação a qual poderia ser incluída a utilização de deepfakes; entretanto, não se mostrou suficiente para o controle de tais técnicas. Com a finalidade de combater a desinformação e regulamentar o uso da inteligência artificial, foi criado o PL 2.630/2020, cujo relator é o deputado Orlando da Silva (PCdoB-SP), que foi aprovado em 2020 pelo Senado, mas ainda está em análise na Câmara. Em seu artigo 5º, § 3º, há a vedação ao deepfake, mas sem a previsão de responsabilidade cível ou criminal dos responsáveis.

No mesmo percurso, foi criado o PL 21/2020, apresentado pelo deputado federal Eduardo Bismarck (PDT-CE), com a finalidade de estabelecer fundamentos, princípios e diretrizes para o desenvolvimento e a aplicação da inteligência artificial no Brasil, o qual foi aprovado pelo plenário no ano de 2021. No entanto, o PL 21/20 não apresenta qualquer disciplina específica quanto ao deepfake em período eleitoral. Outrossim, tem-se o Projeto de Lei n° 2338, de 2023, apresentado pelo Senador Rodrigo Pacheco, que visa à definição da necessidade de que os algoritmos tenham transparência e que sejam explicáveis, permitindo um melhor controle do conteúdo gerado pela IA.

Não se pode esquecer do fato de ser apresentada em 27 de novembro de 2023 a Emenda 1 ao PL 2338/23 pelo Senador Astronauta Marcos Pontes, que, em seu art. 14, apresenta a necessidade de “imposição de marca d’água para rotular claramente o conteúdo gerado por IA” pelos operadores de sistemas de IA de qualquer nível risco que sejam responsáveis por gerar conteúdo o qual deverá ser autenticado. 

Houve, também, uma iniciativa da Justiça Eleitoral sobre os impactos da LGPD no processo eleitoral de registro de candidatura, que ocorreu nos dias 02 e 03 de junho de 2022. Nesse cenário, os especialistas demonstraram uma necessidade de pensar acerca da finalidade e da minimização na coleta e na divulgação de dados nas plataformas de processo judicial eletrônico.

Portanto, os diversos projetos de lei que tramitam, além de debates entre especialistas e o Poder Judiciário demonstram a necessidade de se regular o uso do deepfake e proteger os dados dos indivíduos. Se os projetos de lei forem aprovados, certamente serão grandes aliados das eleições no Brasil neste ano de 2024 e as que virão futuramente, evitando a propagação de fake news.

__________

Referências bibliográficas

CARVALHO, Antonia. Qual o impacto das deepfakes para as eleições? Politize, 2022. Disponível aqui. Acesso em: 28 de set. de 2023.

____. Deepfake: conteúdo do Jornal Nacional é adulterado para desinformar os eleitores. Jornal Nacional, 2022. Disponível aqui. Acesso em: 28 de set. de 2023.

____. Deepfake mostra pesquisa falsa na voz de Renata Vasconcellos, do Jornal Nacional. Exame, 2022 Disponível aqui. Acesso em: 28 de set. de 2023.

DIAS, Jefferson A. SILVA, Fabiano F. Bots, fake faces, deepfakes e sua eventual influência no processo eleitoral democrático. Revista Anpal.

____. É falso áudio atribuído a Ciro Gomes sobre tomada de poder pelas Forças Armadas caso Lula seja eleito. Folha, 2022. Disponível aqui. Acesso em: 29 de set. de 2023.

LEAL, Victoria L. Deepfake: como essa ferramenta pode afetar o andamento das eleições de 2022. AgeMt PUCSP, 2022. Disponível aqui. Acesso em: 29 de set. de 2023.

MARTINI, Francisco. MORETTI, Isis. Deepfake: as consequências de se imitar a vida real. Conjur, 2022. Acesso em: 28 de set. de 2023.

OLIVEIRA, Samuel Rodrigues de. Sorria, você está sendo filmado: tecnologias de reconhecimento facial, privacidade e proteção de dados. 2020. 149 f. UFJF, Juiz de Fora, 2020.

OSÓRIO, Fábio M. PECK, Patrícia. Eleições serão afetadas por LGDP e fake news. Poder 360, 2022. Acesso em: 29 de set. de 2023.

PEIXOTO, Fabiano Hartmann. Inteligência Artificial e Direito. Curitiba: Alteridade Editora, 2019.

PRADO, Magaly Parreira do. Deepfake de áudio: manipulação simula voz real para retratar alguém dizendo algo que não disse. TECCOGS — Revista Digital de Tecnologias Cognitivas, nº 23, jan./jun. 2021, p. 45-68.

____. Regulação de inteligência artificial é defendida no Conselho de Comunicação. Agência Senado, 2023. Disponível aqui. Acesso em 28 de set. de 2023.

SOARES, Olavo. Deepfake deve invadir campanha eleitoral: entenda como funcionam os vídeos manipulados. Gazeta do povo, 2022. Disponível aqui. Acesso em: 29 de set. de 2023.

____. Tecnologia mais acessível coloca deepfake ao alcance de um clique. Exame, 2023. Disponível aqui. Acesso em: 28 de set. de 2023.

Veja mais no portal
cadastre-se, comente, saiba mais

Coordenação

Cintia Rosa Pereira de Lima, professora de Direito Civil da Faculdade de Direito da USP Ribeirão Preto – FDRP. Doutora em Direito Civil pela Faculdade de Direito da USP com estágio na Ottawa University (Canadá) com bolsa CAPES - PDEE - Doutorado Sanduíche e livre-docente em Direito Civil Existencial e Patrimonial pela Faculdade de Direito de Ribeirão Preto (USP). Pó-doutora em Direito Civil na Università degli Studi di Camerino (Itália) com fomento FAPESP e CAPES. Líder e Coordenadora dos Grupos de Pesquisa "Tutela Jurídica dos Dados Pessoais dos Usuários da Internet" e "Observatório do Marco Civil da Internet", cadastrados no Diretório de Grupos de Pesquisa do CNPq e do Grupo de Pesquisa "Tech Law" do Instituto de Estudos Avançados (IEA/USP). Presidente do Instituto Avançado de Proteção de Dados – IAPD - www.iapd.org.br. Associada Titular do IBERC - Instituto Brasileiro de Responsabilidade Civil. Membro fundador do IBDCONT - Instituto Brasileiro de Direito Contratual. Advogada.

Cristina Godoy Bernardo de Oliveira, professora doutora da Faculdade de Direito de Ribeirão Preto – Universidade de São Paulo desde 2011. Academic Visitor da Faculty of Law of the University of Oxford (2015-2016). Pós-doutora pela Université Paris I Panthéon-Sorbonne (2014-2015). Doutora em Filosofia do Direito pela Faculdade de Direito da USP (2011). Graduada pela Faculdade de Direito da USP (2006). Líder do Grupo de Pesquisa Direito, Ética e Inteligência Artificial da USP – CNPq. Coordenadora do Grupo de Pesquisa "Tech Law" do Instituto de Estudos Avançados (IEA/USP). Membro fundador do Instituto Avançado de Proteção de Dados – IAPD.

Evandro Eduardo Seron Ruiz, professor Associado do Departamento de Computação e Matemática, FFCLRP - USP, onde é docente em dedicação exclusiva. Atua também como orientador no Programa de Pós-graduação em Computação Aplicada do DCM-USP. Bacharel em Ciências de Computação pela USP, mestre pela Faculdade de Engenharia Elétrica da UNICAMP, Ph.D. em Electronic Engineering pela University of Kent at Canterbury, Grã-Bretanha, professor lLivre-docente pela USP e pós-Doc pela Columbia University, NYC. Coordenador do Grupo de Pesquisa "Tech Law" do Instituto de Estudos Avançados (IEA/USP). Membro fundador do Instituto Avançado de Proteção de Dados – IAPD.

Nelson Rosenvald é advogado e parecerista. Professor do corpo permanente do Doutorado e Mestrado do IDP/DF. Pós-Doutor em Direito Civil na Università Roma Tre. Pós-Doutor em Direito Societário na Universidade de Coimbra. Visiting Academic na Oxford University. Professor Visitante na Universidade Carlos III, Madrid. Doutor e Mestre em Direito Civil pela Pontifícia Universidade Católica de São Paulo – PUC/SP. Presidente do Instituto Brasileiro de Estudos de Responsabilidade Civil – IBERC. Foi Procurador de Justiça do Ministério Público de Minas Gerais.

Newton De Lucca, professor Titular da Faculdade de Direito da USP. Desembargador Federal, presidente do Tribunal Regional Federal da 3ª Região (biênio 2012/2014). Membro da Academia Paulista de Direito. Membro da Academia Paulista de Letras Jurídicas. Membro da Academia Paulista dos Magistrados. Vice-presidente do Instituto Avançado de Proteção de Dados.