Migalhas de IA e Proteção de Dados

Deep fake e propaganda eleitoral 2024

Dentre os impactos negativos, as deep fakes têm se tornado alvo de análises e críticas, visto que são conteúdos de imagem e voz altamente realistas criados a partir de comandos de IA generativa, de modo a juntar inúmeras informações das redes neurais profundas.

9/8/2024

Atualmente, com o avanço frenético das plataformas tecnológicas de Inteligência Artificial, há, também, como já trabalhado em outras colunas neste Migalhas, preocupações nas discussões acerca dos impactos negativos e positivos consequentes do descompasso entre o desenvolvimento de IA e a dificuldade de regulação. Dentre os impactos negativos, as deep fakes têm se tornado alvo de análises e críticas, visto que são conteúdos de imagem e voz altamente realistas criados a partir de comandos de IA generativa, de modo a juntar inúmeras informações das redes neurais profundas.

Desse modo, as deep fakes são ferramentas extremamente eficazes para as campanhas de desinformação em diversos âmbitos, principalmente para as eleições municipais que se avizinham, afetando o direito à informação aos sujeitos afetados, o princípio da transparência e a lisura da propaganda eleitoral. Já há inúmeros exemplos de deep fakes que vêm sendo utilizadas em larga escala, mesmo que haja proibição pela resolução 23.610/2019, com seu novo texto produzido pelo TSE na resolução 23.732/2024, quanto ao uso de deep fakes nas propagandas eleitorais e obrigação de aviso de utilização de IA quando esta for utilizada. Além disso, o atual Projeto de Lei 2.338/2023 tenta apresentar um arcabouço legislativo para regulamentar a IA, entretanto não apresenta formas de proteção efetiva dos usuários, não adere ao princípio de vulnerabilidade dos usuários e apresenta vaga definição das responsabilidades em termos de transparência.

Vejam, a preocupação quanto a má utilização da tecnologia com fins de campanha eleitoral são mais do que válidas, o histórico não é dos melhores. De acordo com o calendário eleitoral de 2024, a propaganda eleitoral se inicia em 16 de agosto e se define, basicamente, com a divulgação de propostas dos candidatos e candidatas, seus currículos com intuito de captação de votos e convencimento dos eleitores. Com a utilização massiva das novas tecnologias com fins eleitorais, principalmente a partir de 2018 no Brasil, os números de propaganda eleitoral contendo desinformação cresceram vertiginosamente. Como exemplo, nas eleições de 2022, o TSE aplicou mais de R$ 940 mil em multas por uso de desinformação na internet, mesmo com toda a campanha realizada pelo Tribunal, com os canais de comunicação criados para denúncias, o momento adequado para divulgação de propostas é usado para divulgação de desinformação.

O uso das deep fakes pelo TSE ocorreram devido ao amplo acesso a ferramentas como o ChatGPT, da OpenAI e o Gemini, da Google, por exemplo. É imprescindível ressaltar que a utilização de deep fakes em contextos eleitorais não é recente, desde 2018, como dissemos acima, este tipo de conteúdo pode ser constatado e, em sua grande maioria, usado com fins de sátira. Entretanto, não é permitido utilizar em campanhas eleitorais conteúdo fabricado ou manipulado que tenha como fim a desinformação, seja descontextualizando a realidade ou até mesmo criando fatos não verdadeiros.

A nosso ver, essa é uma deliberação correta do TSE, pois deep fakes estão cada vez mais verossímeis e isso pode realmente causar prejuízos significativos ao equilíbrio das eleições ou à integridade de todo o processo eleitoral. Dessa forma, candidatos e candidatas, partidos políticos e/ou a federação partidária que se envolver na produção e disseminação desse tipo de conteúdo podem enfrentar a cassação do registro da candidatura ou do mandato, comprometendo assim a legitimidade da eleição. Além disso, tal conduta configura crime eleitoral, conforme previsto no art. 323 do Código Eleitoral (Lei n° 4737/65), resultando em pena de detenção que pode variar de 2 meses a 1 ano, além do pagamento de multa. A imposição dessas sanções é essencial para garantir um processo eleitoral justo e transparente, protegendo os eleitores de manipulações tecnológicas maliciosas.

Todavia, há outra questão a ser considerada1: a padronização das decisões judiciais envolvendo deep fakes. Atualmente, não há uma legislação específica que delineie as condutas gerais para orientar essas decisões, como princípios e diretrizes, o que pode resultar em uma falta de uniformidade nos julgamentos. Além disso, há uma necessidade crescente de conhecimentos especializados em Techlaw por parte do Judiciário, o que gera outro desafio significativo. A natureza dinâmica da tecnologia, que se altera rapidamente à medida que avança, significa que as decisões judiciais podem não acompanhar a melhor interpretação jurídica. Essa lacuna pode levar a inconsistências e a uma aplicação inadequada da justiça em casos envolvendo deep fakes, prejudicando a proteção dos direitos dos cidadãos e a integridade do processo eleitoral.

Como exemplo, poderíamos citar: Tábata Amaral (PSB) v. Ricardo Nunes (MDB) ocorrido no início de 2024, em contexto de pré candidatura à prefeitura da cidade de São Paulo. No vídeo, o rosto do prefeito Nunes aparece no corpo de Ryan Gosling atuando no filme Barbie com o trocadilho “Quem”, ao invés de “Ken”, sugerindo que o atual prefeito é desconhecido. O caso foi levado por Nunes ao TRE/SP e foi decidido que o vídeo não possui conteúdo vexatório, portanto não há como inferir que há ofensa à honra do prefeito e não há qualquer menção às eleições de 2024, portanto, não se configuraria abuso ou propaganda eleitoral antecipada. Pergunta: Como a Resolução nº 23.732/2024 estabelece quais conteúdos podem gerar ofensas à honra ou configuração de abuso de poder político? Não seria todo ou qualquer conteúdo manipulado ou criado que se incorreria em sanção?

Outro caso: em São Pedro da Aldeia (RJ), um administrador de um perfil no Instagram publicou vários áudios simulando a voz do prefeito em uma conversa com teor sexual com seu assessor de gabinete. O caso foi judicializado e o perfil não foi excluído, apenas a liminar com pedido de remoção do conteúdo foi deferida, contudo, o perfil continuou publicando outros áudios manipulados (deep fakes) e, então, ocorreu a decisão para exclusão do perfil e a suspensão do acesso àquela conta no Instagram por 180 dias. Pergunta: quando e quais são os limites entre liberdade de expressão e censura em casos de deep fakes?

Mais um caso: em Santa Rita (PB), foi publicado um vídeo criado a partir de deep fake, simulando a voz do atual do prefeito e pré candidato a reeleição Nilvan Ferreira (Republicanos), em que ele tece muitos elogios a seu adversário de pleito, o pré candidato Jackson Alvino (PSD), mas até o momento não encontramos a decisão do TRE/PB sobre o caso. Pergunta: E se a deep fake for produzida por um(a) eleitor(a), não filiado a nenhum partido político ou militante político partidário, como será aplicada a regra?

As inteligências artificiais generativas são complexas e transparência, explicabilidade e opacidade são conceitos inerentes a essas tecnologias, como já citamos aqui neste Migalhas2, por isso, a educação dos operadores do direito é imprescindível para a análise envolvendo as novas tecnologias. Os exemplos citados ilustram claramente os desafios complexos que o uso de deep fakes apresenta ao sistema eleitoral brasileiro. A falta de padronização nas decisões judiciais, a necessidade de conhecimentos especializados em Techlaw e a rápida evolução da tecnologia são fatores que complicam ainda mais a situação. A Resolução nº 23.732/2024 do TSE é um passo importante, mas é evidente que é necessário um esforço contínuo para adaptar e fortalecer o arcabouço legal que rege o uso de tecnologias emergentes nas eleições.

É crucial que as autoridades eleitorais, legisladores e a sociedade civil trabalhem juntos para garantir que a integridade do processo eleitoral seja protegida. A criação de mecanismos eficientes para detecção e enfrentamento de deep fakes, combinada com uma educação ampla sobre o tema para operadores do direito e eleitores, é essencial. Além disso, a implementação de canais de denúncia, como o número de telefone 1491, criado pelo TSE, representa uma iniciativa importante para envolver os cidadãos na identificação e reporte de conteúdos desinformativos.

A interseção entre liberdade de expressão e a necessidade de proteger a honra e a integridade dos candidatos deve ser cuidadosamente equilibrada para evitar tanto a censura quanto o abuso de direito. No entanto, a prioridade deve ser a manutenção de um ambiente eleitoral justo e transparente. À medida que avançamos para as eleições municipais de 2024, a vigilância e a ação proativa serão fundamentais para garantir que a verdade nas campanhas eleitorais prevaleça e que os eleitores possam tomar decisões informadas, livres de manipulações tecnológicas manipuladas.

__________

1 Disponível aqui.

2 Disponível aqui.

Veja mais no portal
cadastre-se, comente, saiba mais

Coordenação

Cintia Rosa Pereira de Lima, professora de Direito Civil da Faculdade de Direito da USP Ribeirão Preto – FDRP. Doutora em Direito Civil pela Faculdade de Direito da USP com estágio na Ottawa University (Canadá) com bolsa CAPES - PDEE - Doutorado Sanduíche e livre-docente em Direito Civil Existencial e Patrimonial pela Faculdade de Direito de Ribeirão Preto (USP). Pó-doutora em Direito Civil na Università degli Studi di Camerino (Itália) com fomento FAPESP e CAPES. Líder e Coordenadora dos Grupos de Pesquisa "Tutela Jurídica dos Dados Pessoais dos Usuários da Internet" e "Observatório do Marco Civil da Internet", cadastrados no Diretório de Grupos de Pesquisa do CNPq e do Grupo de Pesquisa "Tech Law" do Instituto de Estudos Avançados (IEA/USP). Presidente do Instituto Avançado de Proteção de Dados – IAPD - www.iapd.org.br. Associada Titular do IBERC - Instituto Brasileiro de Responsabilidade Civil. Membro fundador do IBDCONT - Instituto Brasileiro de Direito Contratual. Advogada.

Cristina Godoy Bernardo de Oliveira, professora doutora da Faculdade de Direito de Ribeirão Preto – Universidade de São Paulo desde 2011. Academic Visitor da Faculty of Law of the University of Oxford (2015-2016). Pós-doutora pela Université Paris I Panthéon-Sorbonne (2014-2015). Doutora em Filosofia do Direito pela Faculdade de Direito da USP (2011). Graduada pela Faculdade de Direito da USP (2006). Líder do Grupo de Pesquisa Direito, Ética e Inteligência Artificial da USP – CNPq. Coordenadora do Grupo de Pesquisa "Tech Law" do Instituto de Estudos Avançados (IEA/USP). Membro fundador do Instituto Avançado de Proteção de Dados – IAPD.

Evandro Eduardo Seron Ruiz, professor Associado do Departamento de Computação e Matemática, FFCLRP - USP, onde é docente em dedicação exclusiva. Atua também como orientador no Programa de Pós-graduação em Computação Aplicada do DCM-USP. Bacharel em Ciências de Computação pela USP, mestre pela Faculdade de Engenharia Elétrica da UNICAMP, Ph.D. em Electronic Engineering pela University of Kent at Canterbury, Grã-Bretanha, professor lLivre-docente pela USP e pós-Doc pela Columbia University, NYC. Coordenador do Grupo de Pesquisa "Tech Law" do Instituto de Estudos Avançados (IEA/USP). Membro fundador do Instituto Avançado de Proteção de Dados – IAPD.

Nelson Rosenvald é advogado e parecerista. Professor do corpo permanente do Doutorado e Mestrado do IDP/DF. Pós-Doutor em Direito Civil na Università Roma Tre. Pós-Doutor em Direito Societário na Universidade de Coimbra. Visiting Academic na Oxford University. Professor Visitante na Universidade Carlos III, Madrid. Doutor e Mestre em Direito Civil pela Pontifícia Universidade Católica de São Paulo – PUC/SP. Presidente do Instituto Brasileiro de Estudos de Responsabilidade Civil – IBERC. Foi Procurador de Justiça do Ministério Público de Minas Gerais.

Newton De Lucca, professor Titular da Faculdade de Direito da USP. Desembargador Federal, presidente do Tribunal Regional Federal da 3ª Região (biênio 2012/2014). Membro da Academia Paulista de Direito. Membro da Academia Paulista de Letras Jurídicas. Membro da Academia Paulista dos Magistrados. Vice-presidente do Instituto Avançado de Proteção de Dados.