Migalhas de Peso

DeepFakes nas eleições de 2020: será possível confiar no que vemos?

Em razão do impacto das DeepFakes, este texto trata de possíveis soluções tanto no âmbito de tecnologia, quanto no âmbito de dogmático eleitoral.

9/7/2020

Preocupado com o contexto das últimas eleições, o Tribunal Superior Eleitoral (TSE) no dia 30 de agosto de 2019 lançou Programa de Enfrentamento à Desinformação com Foco nas Eleições 2020, hoje com mais de 49 instituições – dentre elas partidos, empresas e agências de checagem de fatos, com a finalidade de combater a desinformação. Dentre as iniciativas combatidas está ao que próprio TSE conceitua como DeepFakes “tecnologia (que) utiliza inteligência artificial para criar vídeos falsos que parecem verdadeiros”.

Tendo esse prenúncio e combate do tribunal a primeira pergunta que levantamos: é possível uma pessoa leiga reconhecer as DeepFakes? Preliminarmente, convém dizer que a grande maioria dos vídeos DeepFakes não possui intenção maliciosa. Ou seja, à primeira vista, a circulação cada vez mais em massa delas está relacionada a sátiras e humor realizadas no nosso dia a dia. Inclusive, atenta-se que as DeepFakes não são um fenômeno novo, visto que as falsificações visuais em fotos já são realizadas há décadas.

A própria palavra foi originalmente usada para descrever pornografia falsa gerada pela inteligência artificial. Segundo o novo relatório da DeepTrace a internet abriga pelo menos 14.678 DeepFakes, sendo quase 96% delas pornografia falsa e antiga. Em que pese o destaque para a pornografia ou mesmo para o humor, o crescimento das DeepFakes para a política parece exponencial.

De todo modo, destaca-se que as DeepFakes têm, em regra, os seguintes tipos: (i) aquela deep fake em que uma pessoa grava determinado conteúdo de vídeo e a cabeça, tronco, ombros, todo cenário são substituídos por outros manipulados ou falsos, ocorrendo, porém a manutenção de todos os movimentos e sons do vídeo original, como o conhecido vídeo fake do Obama no ano de 2018; (ii) aquela que se troca unicamente o rosto, em que faces sintetizadas mantém o movimento do vídeo original, comumente usada pelo influencer e jornalista Bruno Sartori; (iii) e, por fim, aquela de sincronização labial, a qual manipula, em especial, a fala, modificando, além disso, a voz.1 Além destes tipos, há as “Shallowfakes”, que são vídeos manipulados por ferramentas básicas, sendo assim caracterizados (i) por estarem fora do contexto original, (ii) por terem edição enganosa por omissão ou inserção de trechos, (iii) por manipulação rasa do vídeo, ainda que de baixa qualidade, capaz de afetar a reputação da pessoa.2 Nesse sentido, que, a partir do conhecimentos destas técnicas de ilusão e classificações, bem como exemplos, podemos concluir a real possibilidade de análise de veracidade por pessoa comum. Prova disso é observarmos claramente inserções de baixa qualidade, incompatibilidade de cores, partes visíveis da face original.

A segunda pergunta: como combater as DeepFakes em vídeo?  

A partir do cenário internacional é importante destacar os dois projetos de lei assinados na Califórnia que limitam o que as pessoas podem fazer com as deepfakes. Já no Brasil vale refletir que as medidas se dão de modo coercitivo e preventivo com todos atores do ecossistema eleitoral. Quanto ao primeiro, a perspectiva é a interferência jurisdicional pelas ações eleitorais, além de é claro o uso de perícia como meio de prova. Desse modo, pontua-se a possibilidade de apresentação em face do candidato que se utiliza de desinformação a Ação de Investigação Judicial Eleitoral (AIJE), a qual apura abuso de poder político ou econômico, e a Ação de Impugnação de Mandato Eletivo (AIME), que verifica o abuso de poder econômico, corrupção ou outra fraude durante o procedimento eletivo.

No tocante ao modo preventivo podemos destrinchar em (i) parcerias, sobretudo, com agências de checagem; (ii) consolidação de políticas de privacidade e termos de uso de redes sociais e de mensagem; (iii) criação de normas e programas que delimitem e combatam o fenômeno; (iv) incentivo ao ecossistema de desinformação; (v) o uso de métodos pela Inteligência Artificial e, enfim, (vi) o uso de Blockchain.

No que diz respeito a parcerias, mais uma vez sublinhamos o Programa de Enfrentamento à Desinformação, em que Whatsapp, Twitter, Facebook, Google, Agência Lupa, Aos Fatos, Boatos.org participam. Quanto consolidação de políticas de privacidade e termos de uso de mídias sociais e de mensagem é cada vez mais claro a necessidade seja por autorregulação voluntária (sem parâmetros normativos estatais, apenas internos), seja por autorregulação estimulada (em que o Estado estimula a autorregulação através de recompensas ou sanções), seja na autorregulação regulada (em que o Estado cria marcos gerais para modulação de normas internas). Ademais, pensamos ser possível que as redes sociais e de mensagem podem utilizar máquinas que verificam a veracidade antes e durante a publicação de um vídeo, como aquelas desenvolvidas de violação de propriedade intelectual. Nesse sentido que é importante dizer os recentes casos de ocultação e exclusão de posts do presidente Donald Trump no Twitter. Vale realçar, por outro lado, que é preciso cautela, visto que tais políticas – com o uso excessivo - podem ferir a liberdade de expressão dos cidadãos.

De modo preventivo, além disso, deve ocorrer a criação de normas e programas, como o Pardal, que delimitem e combatam o fenômeno da desinformação. Destacamos assim a Resolução 23.610/2019 no art.9º que estipula o dever de fidedignidade e a vedação de impulsionamento e de disparo em massa de conteúdo por pessoa física (Art. 28, IV). Inclusive, cumpre atentar nossa preocupação da “PL das Fakes News”3, bem como na futura discussão de competência entre Justiça Eleitoral e ANPD, pois o uso de dados/imagens falsos e verdadeiros das pessoas devem ter novos marcos regulatórios nas eleições futuras.

No que diz respeito ao incentivo do ecossistema, apontamos que empresas – parte também do ambiente eleitoral - já estão atentas, tanto através de estímulo de eventos, como DARPA MFC 2018 Synthetic Data Detection Challenge e Deepfake Detection Challenge (DFDC), quanto na entrega de serviço de veracidade de vídeos como a Truepic e Deeptrace. Aliás, a Truepic é uma empresa baseada na aplicação do Blockchain, ou seja, “the hashes of the interplanetary de system” (IPFS) – semelhante à Ethereum nos smart contracts, em que artistas capturam e salvam imagens no provedor da companhia trazendo autenticidade, rastreabilidade, imutabilidade, descentralização, auditoria e veracidade na informação,.4 Mais do que propostas para resolver a desinformação, tais empresas, ademais, configuram alicerces para a proteção do direito de propriedade intelectual, assim proteção a imagem e privacidade de terceiros.  Por fim, é o uso de AI contra AI. Koopman, Rodriguez e Geradts explicam a possibilidade de “photo response non uniformity” (PRNU), método que verifica a veracidade a partir sensor de luz da câmera/vídeo5, e do “adversarial perturbations”, método explanado por Lyu, que detecta manipulações pelos frames da câmera.

Em suma, apesar do tema englobar inúmeros outros e aplicações, a nossa certeza é saber quais técnicas são usadas, com vista tanto o cidadão comum, quanto o agente técnico, seja advogado ou perito, tenham capacidade de responder contra a desinformação. Aliás, ter conhecimento desenvolve outras ações alinhadas em todos os atores do ecossistema eleitoral – empresas, candidatos e tribunais. A partir destas medidas, estamos preparados?

_________ 

1- LYU, Siwei. Deepfake detection: current challenges and next steps. Computer Science Department. University at Albany, State University of New York

2- The State of Deepfakes: Landscape, Threats, and Impact, Henry Ajder, Giorgio Patrini, Francesco Cavalli, and Laurence Cullen, September 2019

3- Clique aqui e aqui.  

4- HAYA R. HASAN AND KHALED SALAH. Combating Deepfake Videos Using Blockchain and Smart Contracts. Department of Electrical and Computer Engineering, Khalifa University, Abu Dhabi 127788, United Arab Emirates

5- Koopman, Marissa. Rodriguez Andrea Macarulla, Geradts .Zeno. Detection of Deepfake Video Manipulation University of Amsterdam & Netherlands Forensic Institute.

_________ 

*José Maurício Linhares Barreto Neto é sócio fundador da Cardoso, Siqueira & Linhares. Foi Delegado da Comissão Especial de Direito Eleitoral e Reforma Política da OAB. Formado em Direito pela Universidade Federal Fluminense/UFF.

*Samara Castro é advogada com atuação nas áreas de Direito Eleitoral e Partidário, Direito Digital, Privacidade e Proteção de Dados. Vice-Presidente da Comissão de Proteção de Dados e Privacidade da OAB-RJ. Membro da Comissão de Direito Eleitoral da OAB-RJ. Membro da Academia Brasileira de Direito Eleitoral e Político (ABRADEP).

Veja mais no portal
cadastre-se, comente, saiba mais

Artigos Mais Lidos

O papel do Direito Notarial no mercado de créditos de carbono: Uma base para sustentabilidade e confiança

17/12/2024

Prostatectomia robótica: Benefícios clínicos e cobertura pelos planos de saúde

16/12/2024

PERSE – Alterações do programa emergencial de retomada do setor de eventos

17/12/2024

Dívida médica nos EUA e visto negado, como reverter essa situação?

17/12/2024

O uso do precedente no direito brasileiro - O conflito entre precedente e jurisprudência ocasional

16/12/2024