Recentemente o Spotify firmou um acordo com o TSE para combater Fake News nas eleições de 2022. No acordo, há um entendimento de que a produção e a disseminação de informações falsas podem representar um risco à democracia e à legitimidade do processo eleitoral. No entanto, essa não é a primeira vez que o TSE faz acordos para evitar a disseminação de Fake News. O WhatsApp, Twitter, Facebook e Telegram também já aderiram a iniciativa.
Segundo Vitor Saldanha, especialista em Privacidade e Proteção de Dados e sócio da banca Daniel Advogados, o uso da tecnologia não deveria se limitar apenas a melhoria de experiência do usuário e a otimizações tecnológicas, mas sim ser utilizada de forma mais contundente no processo de identificação e promoção de conteúdos verificados, com isso combatendo o fenômeno das Fake News. "É possível, por meio da arquitetura destas plataformas, uma abordagem que, ao mesmo tempo que permite a evolução tecnológica, procure garantir um ambiente mais seguro e menos suscetível ao alastramento de desinformações", diz o especialista.
Dentre as Big Techs, o Spotify irá disponibilizar o acesso ao "Centro de Informação Eleitoral", espaço de divulgação de informações relevantes e verificadas sobre as eleições. Além disso, a plataforma deixará um link para direcionar os usuários ao site do TSE, onde poderão checar a veracidade dos conteúdos apresentados.
O WhatsApp também se comprometeu a implementar ou a auxiliar a implementação de uma série de iniciativas para a difusão de informações confiáveis e de qualidade sobre o processo eleitoral. A plataforma de mensagens irá capacitar colaboradores para que possam conduzir seminários para os servidores do TSE e dos TREs sobre o aplicativo.
"Outro ponto de destaque, dentro desse universo, é a manutenção da parceria do TSE com o WhatsApp para a utilização do Chatbot Tira-dúvidas do TSE, via a ferramenta do Grupo Meta. A ideia é que usuários cadastrados possam receber checagens sobre notícias falsas, bem como interagir com o Bot do TSE via WhatsApp", afirma Saldanha.