MIGALHAS DE PESO

  1. Home >
  2. De Peso >
  3. Responsabilidade das redes sociais por conteúdos no Brasil

Responsabilidade das redes sociais por conteúdos no Brasil

Moderação de conteúdo é poder ou dever das plataformas?

sexta-feira, 21 de março de 2025

Atualizado às 15:09

Início de 2025, a movimentação na internet rendeu likes e dislikes sobre o pronunciamento do Mark Zuckerberg sobre a mudança de estratégia quanto à moderação de conteúdos criados pelos usuários e publicados no Instagram.

A remoção de conteúdos e redução do alcance eram medidas empregadas após avaliação pela equipe da Meta quando identificadas incompatibilidades das postagens com a política da rede. Reconhecendo que a missão gerava censura aos usuários, os limites do que publicar foram devolvidos às pessoas, adotando um modelo já praticado pelo X, antigo Twitter.

A responsabilidade pela checagem de fake news e discursos de ódio, pelas redes sociais, é assunto em amplo debate no ambiente digital e também em nossos órgãos de Poder - Judiciário, Legislativo e Executivo.

Não é à toa. Com a população de 216 milhões de habitantes, o Brasil tem 134 milhões de contas no Instagram, ficando atrás da Índia e dos Estados Unidos. Na aplicação WhatsApp, hoje também do Grupo Meta, estamos em 2º lugar no mundo, com 148 milhões de contas. Por sua vez, no Tik Tok, pontuamos com 98,6 milhões de contas.

Nossa intensa conectividade às redes sociais pode nos colocar como vulneráveis, seja em relação à nossa privacidade, numa análise mais individualizada, ou, em escala coletiva, vítimas da influência "das massas".

Dentro desse espectro, que vai da normatização do tratamento de dados pessoais à regulamentação do controle de conteúdo pelas plataformas, temos muito a debater enquanto sociedade brasileira que mistura uma convivência geracional de Boomers, Geração X, Millennials, Geração Z e Geração Alpha.

E o resultado desse debate deverá refletir a decisão sobre os limites impostas à atuação das "plataformas" no Brasil.

Hoje, as redes sociais são consideradas provedores de aplicação e, assim como outras empresas de segmentos diversos estão submetidas a todo nosso cardápio de normas que compõem nosso ordenamento jurídico, sem exceções.

Contudo, quando se fala da responsabilidade sobre remoção de conteúdos por essas plataformas nossa atual legislação aplicável aponta que a obrigação imposta às plataformas para remoção de conteúdo só se inicia após a notificação do Poder Judiciário.

Nosso Legislativo validou essa regra com a publicação do marco civil da internet em 2014, quando no art. 19 da lei 12.965 inseriu a condicionante do descumprimento da ordem judicial da remoção de conteúdo para impor responsabilidade às plataformas.

O mote dessa limitação de responsabilidade foi a liberdade de expressão. Deu-se ao povo, usuários das redes sociais, portanto, a responsabilidade por sua própria conduta no ambiente digital.

Nos últimos dez anos, no entanto, vimos o aumento de contas em redes sociais geridas por robôs, usuários que disseminam informações falsas e praticam condutas tipicamente criminosas, além de violações de direitos autorais. As redes sociais tornaram-se palco de fake news e discursos de ódio.

Com esses eventos, muitos conflitos foram levados ao Judiciário, o que nos colocou em uma discussão no STF sobre a constitucionalidade do art. 19 do MCI, ou seja, se, de fato, as plataformas devem ou não ser obrigadas a moderar conteúdo, com os REs números 1037396 e 1057258 que ainda segue, após 2 anos, em julgamento na corte.

Em paralelo, o PL de regulação das redes está brecado na Câmara justamente porque não entramos em consenso sobre a responsabilidade

Como cereja do bolo, ainda estamos construindo, em nosso Legislativo, regras para a governança da inteligência artificial que, obviamente, cruza com o tema da regulamentação das plataformas haja vista que a moderação de conteúdo pelas redes sociais é executada por ferramentas de IA, formulações algorítmicas que podem conter vieses e terminar cerceando vozes.

O que parece que está mais à frente é o Poder Judiciário que, de certa medida, usurpa a função de legislar e coloca na caneta, digo, no certificado digital, do magistrado o poder da censura ou suspensão do ato danoso, como queira.

Enquanto isso, a decisão de como atuar, se moderando conteúdo ou viabilizando a liberdade de expressão, está nas mãos das plataformas haja vista que a regra legal que segue sendo exigível é a responsabilização das bigtechs apenas após sua notificação para remoção de conteúdo pelo Judiciário em casos concretos.

Simone Bastos Braga de Andrade

VIP Simone Bastos Braga de Andrade

Sócia Braga de Andrade Advogados | Direito Digital - membro ANADD | Governança, Risco, Compliance - CPC-A |Membro do IBGC | Privacidade e Proteção de Dados LGPD - Membro IAPP | DPO Exin IAPP CPC-PD

AUTORES MIGALHAS

Busque pelo nome ou parte do nome do autor para encontrar publicações no Portal Migalhas.

Busca