Meta se alinha ao X e troca checagem de fatos por notas da comunidade
Em pronunciamento, Mark Zuckerberg, CEO da Meta, afirmou que países europeus e latino-americanos praticam "censura" ao moderarem redes sociais.
Da Redação
terça-feira, 7 de janeiro de 2025
Atualizado às 18:29
A Meta, empresa controladora do Facebook e Instagram, anunciou nesta terça-feira, 7, mudança significativa na política de moderação de conteúdos. A checagem de fatos, até então realizada em parceria com organizações independentes, será substituído pelas chamadas "notas de comunidade", recurso semelhante ao adotado pela plataforma X (antigo Twitter), de Elon Musk.
O anúncio foi feito por Mark Zuckerberg, CEO da Meta, em um tom que chamou atenção pela crítica explícita aos verificadores de fatos e por declarações que sugerem um alinhamento com o futuro governo de Donald Trump.
"É hora de voltar às nossas raízes em torno da liberdade de expressão. Chegou a um ponto em que há muitos erros e muita censura. Estamos substituindo os verificadores de fatos por 'notas da comunidade', simplificando nossas políticas e nos concentrando na redução de erros. Ansioso por este próximo capítulo", afirmou Zuckerberg.
Veja o vídeo:
Como era?
Até agora a Meta utilizava o modelo de checagem de fatos, o qual depende de profissionais e organizações independentes parceiras das redes sociais. Essas organizações têm acesso a ferramentas específicas e, em muitos casos, revisam conteúdos sinalizados pelos algoritmos das plataformas ou pelos próprios usuários.
O processo de checagem começa com a seleção de informações relevantes, como declarações públicas ou conteúdos virais com potencial de impacto significativo. As equipes de verificação coletam evidências em fontes confiáveis, como estudos, documentos oficiais e especialistas, confrontando os dados com a informação original.
Além disso, contextualizam os fatos para evitar interpretações parciais ou enganosas. Após a análise, a veracidade do conteúdo é classificada em categorias, como "verdadeira", "falsa" ou "fora de contexto", e o processo de investigação é detalhado para garantir transparência. Por fim, os resultados são divulgados em plataformas de checagem ou redes sociais, acompanhados das fontes utilizadas.
Como ficou?
Agora, Facebook e Instagram utilizarão o modelo de moderação colaborativa das "notas da comunidade", no qual os próprios usuários adicionam informações complementares a postagens de outros. A proposta é fornecer contexto adicional para conteúdos que possam ser ambíguos, enganosos ou polêmicos, sem os remover ou marcá-los diretamente como falsos.
Nesse sistema, postagens com informações controversas, mal interpretadas ou potencialmente enganosas podem ser acompanhadas por uma nota da comunidade. Os usuários têm a possibilidade de sugerir ou votar em correções e informações adicionais, exibidas junto à postagem original.
As sugestões precisam ser validadas por outros usuários da plataforma antes de se tornarem públicas, em um processo de consenso que idealmente envolve pessoas com diferentes perspectivas ideológicas ou de grupos variados.
O objetivo do recurso é, em vez de aplicar sanções ou remover o conteúdo, esclarecer o público, promovendo um contraponto ou uma contextualização sobre o tema debatido. Por exemplo, diante de uma postagem afirmando que "a Terra é plana", os usuários poderiam adicionar uma nota explicando que estudos científicos comprovam o formato esférico da Terra, citando fontes confiáveis. Essa nota seria exibida junto à postagem original, ajudando os leitores a compreender melhor a questão.
Mais liberdade ou menos responsabilidade?
Zuckerberg justificou a decisão afirmando que os verificadores de fatos seriam "tendenciosos politicamente" e que o novo sistema evitará a "remoção acidental de postagens e contas de pessoas inocentes".
Sob o novo modelo, os próprios usuários poderão corrigir ou complementar informações em publicações, reduzindo o papel da moderação centralizada.
Joel Kaplan, vice-presidente de assuntos globais da Meta, defendeu a mudança. "Permitiremos que as pessoas se expressem mais, eliminando restrições sobre alguns assuntos que são parte de discussões na sociedade e focando a moderação de conteúdo em postagens ilegais e violações de alta severidade", afirmou ao G1.
Apesar disso, a decisão deixou de abordar como conteúdos enganosos ou prejudiciais serão tratados sob o novo modelo.
Apoio a Trump
Zuckerberg foi além. O proprietário da Meta sinalizou apoio ao futuro governo de Donald Trump, que assume a presidência dos Estados Unidos ainda em janeiro.
Segundo o executivo, a Meta trabalhará em conjunto com o republicano para "pressionar os governos de todo o mundo, que visam perseguir empresas americanas e pressionando para implementar mais censura", mencionando países europeus e latino-americanos.
A declaração gerou reação de João Brant, secretário de Políticas Digitais da Secom - Secretaria de Comunicação Social do Brasil. Para Brant, as críticas de Zuckerberg sobre "tribunais secretos" seriam uma referência ao STF e refletem tentativa de enfraquecer iniciativas regulatórias. "A aliança da Meta com Trump explicita uma estratégia de enfrentamento contra países que buscam proteger direitos no ambiente online", afirmou.
Além disso, Zuckerberg destacou que os EUA possuem "proteções constitucionais mais fortes" contra censura, enquanto países da Europa estariam implementando leis que dificultam a inovação.
A escolha de substituir verificadores por notas da comunidade também reflete uma tendência observada em outras gigantes da tecnologia, como Amazon e Apple, que têm estreitado relações com Trump em resposta a pressões regulatórias. A proximidade entre essas empresas e o governo republicano é um sinal preocupante para quem defende maior responsabilidade das plataformas digitais.
Enquanto isso, no Brasil
Na última sessão plenária, em dezembro de 2024, o STF suspendeu a análise da constitucionalidade do art. 19 do Marco Civil da Internet, que exige ordem judicial para a remoção de conteúdos de redes sociais e provedores de internet. A discussão aborda dois processos distintos: um envolvendo a responsabilidade de plataformas por perfis falsos no Facebook e outro sobre ofensas no Orkut.
O julgamento foi suspenso após o pedido de vista do ministro André Mendonça e deve ser retomado no primeiro semestre de 2025. Até o momento, os votos refletem posições divergentes entre os ministros.
- Dias Toffoli votou pela inconstitucionalidade do art. 19, defendendo que notificações extrajudiciais sejam suficientes para remover conteúdos prejudiciais e responsabilizar as plataformas. Propôs exceções para veículos jornalísticos e serviços que não funcionem como redes sociais.
- Luiz Fux também se posicionou pela remoção sem necessidade de ordem judicial, criticando a "zona de conforto" proporcionada às plataformas pelo atual marco legal. Para S. Exa., as empresas devem agir imediatamente diante de notificações ou conteúdos evidentemente ilícitos, como discursos de ódio e apologia ao golpe de Estado.
- O presidente da Corte, ministro Luís Roberto Barroso, apresentou um voto intermediário. Propôs manter a exigência de ordem judicial para casos de crimes contra a honra, como calúnia e difamação, para evitar abusos que limitem o debate público. Para outras violações, defendeu a possibilidade de notificações extrajudiciais, com responsabilização subjetiva das plataformas. Barroso também destacou a necessidade de um marco regulatório para mitigar riscos sistêmicos e sugeriu que o Congresso crie um órgão regulador independente.
Os casos têm implicações importantes para o equilíbrio entre liberdade de expressão e proteção contra abusos no ambiente digital. A decisão final pode redefinir o papel das plataformas no combate à desinformação, discurso de ódio e conteúdos prejudiciais, além de influenciar o debate global sobre a regulação da internet.
Com o pedido de vista, o STF adiou a definição sobre a constitucionalidade do art. 19. Até lá, as redes sociais continuarão amparadas pelas regras atuais, que condicionam a remoção de conteúdos à existência de uma ordem judicial.
- Processos: RE 1.037.396 e RE 1.057.258
Retorno às raízes
O tom de Mark Zuckerberg em seu pronunciamento é nitidamente de "mea culpa". O CEO lamenta que o sistema desenvolvido por sua própria equipe, destinado a banir conteúdos "legitimamente danosos" como "drogas, terrorismo e exploração infantil", tenha sido desvirtuado para servir como instrumento de "censura".
Este posicionamento representa um marco para o proprietário da Meta. Em sua declaração, Zuckerberg adota uma postura que classifica como "erro" a prática consolidada de checagem de fatos. Sem apresentar dados concretos, menciona "muitos erros e muita censura" e propõe um "retorno às raízes" de uma internet que, na verdade, já não reflete os tempos da criação do Facebook e do Instagram, no início dos anos 2000.
A desinformação generalizada nas redes sociais talvez torne inviável um "retorno às raízes", já que a evolução tecnológica segue adiante, não para trás.
É inegável que a desinformação representa uma ameaça à democracia - os ataques ao Supremo em 8/1/23 são um exemplo alarmante. Surge, então, a questão: devemos eliminar os mecanismos de checagem de conteúdo ou, ao contrário, ampliá-los e aprimorá-los?
A proposta de eliminar a checagem profissional, transferindo a responsabilidade para os próprios usuários das redes, assemelha-se à ilusão de uma democracia direta arcaica, como se ainda vivêssemos em uma cidade-Estado do período aristotélico. No mundo atual, não é mais viável relegar o controle da informação exclusivamente à comunidade.
Ao invés de investir na melhoria de filtros que, segundo o CEO, "eliminam conteúdos que não deveriam", a escolha foi por um retrocesso: deixar nas mãos do público a tarefa de arbitrar o que é ou não verdadeiro.
Resta a pergunta: por que optar por eliminar mecanismos em vez de aprimorá-los e complementá-los?