Barroso diverge em regulação das redes sociais e Mendonça pede vista
Sessão foi retomada com o voto-vista do ministro Luís Roberto Barroso intermediário com relação aos votos dos ministros Toffoli e Fux, relatores das ações, que votaram pela remoção de conteúdos sem ordem judicial.
Da Redação
quarta-feira, 18 de dezembro de 2024
Atualizado às 17:45
Nesta quarta-feira, 18, o STF voltou a analisar ações que discutem a necessidade de ordem judicial para que provedores de internet, como redes sociais e marketplaces, removam conteúdos de terceiros.
A sessão foi retomada com voto-vista do ministro Luís Roberto Barroso no sentido de que em alguns casos, como crimes contra a honra, seja mantida a exigência de ordem judicial para a remoção do conteúdo.
O ministro Luiz Fux, relator do RE 1.057.258, e ministro Dias Toffoli, relator da outra ação julgada em conjunto (RE 1.037.396), votaram no sentido da remoção sem ordem judicial.
Após o voto de Barroso, o ministro André Mendonça pediu vista, suspendendo o julgamento, que deve voltar a acontecer no próximo semestre.
Como está o julgamento
Para Fux, o art. 19 do Marco Civil da Internet promove "zona de conforto" para redes sociais. Destacou a necessidade de as plataformas digitais adotarem medidas imediatas para a remoção de conteúdos, assim que notificadas.
Toffoli votou pela inconstitucionalidade do art. 19 do Marco Civil da Internet, posicionando-se contra a obrigatoriedade de ordem judicial para a remoção de conteúdos. Em sua proposta, uma notificação extrajudicial seria, em regra, suficiente para que as plataformas agissem.
Em casos graves, descritos em um rol taxativo, as próprias redes sociais deveriam monitorar e remover conteúdos prejudiciais, independentemente de notificação.
O ministro Toffoli destacou exceções à regra, como veículos jornalísticos, que devem seguir a regulamentação específica da lei 13.188/15 (lei do direito de resposta). Também excluiu da responsabilidade civil provedores de e-mail, serviços de mensagens e plataformas de reuniões online, desde que não sejam utilizados como redes sociais.
Perfil falso
No RE 1.037.396 (tema 987) , de relatoria do ministro Dias Toffoli, uma mulher ajuizou ação na Justiça paulista após descobrir, por meio de parentes, um perfil falso no Facebook que usava seu nome e fotos para ofender terceiros. Alegando que sua vida "tornou-se um inferno", pediu a exclusão do perfil e indenização por danos morais.
O JEC de Capivari/SP ordenou a exclusão do perfil e o fornecimento do IP, mas negou o pedido de indenização, com base no art. 19 do Marco Civil da Internet. O dispositivo limita a responsabilidade civil de provedores a situações em que, após ordem judicial, eles não removam o conteúdo infrator.
A autora recorreu. A turma recursal determinou indenização de R$ 10 mil, argumentando que exigir ordem judicial específica para remover perfis falsos desconsidera o CDC e a CF, que prevê o dever de indenizar.
No STF, o Facebook questiona a decisão, defendendo a constitucionalidade do art. 19. A empresa sustenta que a norma preserva a liberdade de expressão e impede censura, ressaltando que remover conteúdo sem análise judicial transferiria a empresas privadas o poder de limitar a comunicação pública, em contrariedade à CF e ao marco civil.
Conteúdo de usuários
No RE 1.057.258 (tema 533), de relatoria do ministro Luiz Fux, o STF analisa a responsabilidade de provedores de aplicativos e ferramentas de internet por conteúdo gerado por usuários. Aborda também a possibilidade de remoção de conteúdo que possa violar direitos de personalidade, incitar o ódio ou propagar notícias falsas mediante notificação extrajudicial.
No caso, a Google recorreu de acórdão da 1ª turma recursal cível do JEC de Belo Horizonte/MG, que confirmou a sentença condenatória responsabilizando a rede social Orkut pela remoção da página intitulada "Eu odeio a Liandra", além de determinar o pagamento de R$ 10 mil por danos morais. Mesmo após notificação, a Google se recusou a retirar do ar a página que continha ofensas à vítima.
Voto do relator - Toffoli
Ministro Dias Toffoli, em seu voto, criticou a imunidade conferida às plataformas pelo art. 19 do Marco Civil da Internet, argumentando que a norma perpetua conteúdos prejudiciais no ambiente digital.
Defendeu que o mesmo rigor aplicado ao mundo físico deve valer no virtual, e que redes sociais priorizam lucros ao promover desinformação e conteúdos nocivos, impulsionados por algoritmos.
Ressaltou a falta de regulamentação sobre liberdade de expressão e citou reflexos como ataques ao STF e ao Capitólio.
Toffoli votou pela inconstitucionalidade do art. 19 e propôs que notificações extrajudiciais sejam suficientes para responsabilizar plataformas em casos de violações de intimidade, honra e imagem. Em situações graves, como contas falsas, riscos a direitos fundamentais ou à integridade eleitoral, defendeu a responsabilização objetiva das redes, independentemente de notificação.
O ministro sugeriu exceções para provedores de e-mail, serviços de mensagens e plataformas de reuniões online, desde que não atuem como redes sociais, e destacou a possibilidade de retroatividade da responsabilidade objetiva, buscando um equilíbrio entre liberdade de expressão e reparação de danos.
Para blogs e plataformas jornalísticas, propôs a aplicação da lei 13.188/15 (lei do direito de resposta).
Voto do relator - Fux
Em seu voto, ministro Luiz Fux criticou a "zona de conforto" das plataformas digitais, que só podem ser responsabilizadas por conteúdos prejudiciais de terceiros após ordem judicial específica. Para o ministro, o art. 19 do Marco Civil da Internet permite essa inércia.
Ainda, destacou o lucro dessas empresas com a viralização de conteúdos degradantes, contrastando com a imprensa tradicional, que verifica informações antes da publicação. Para o ministro, a dignidade humana, um dos pilares da República, deve ser prioridade no ordenamento jurídico.
O ministro entendeu que não é compatível com a CF, portanto, um regime de responsabilidade civil que isente amplamente empresas provedoras de aplicações de internet do dever de atuar, dentro de suas possibilidades, para remover conteúdos postados em redes sociais por meio de suas plataformas, especialmente quando previamente notificadas.
Entendeu que as empresas têm o dever de agir quando tiverem "ciência inequívoca do conhecimento dos atos ilícitos, seja por ser evidente, seja porque devidamente informado por qualquer meio idôneo".
Destacou que, em casos de conteúdos evidentemente ilícitos, como discursos de ódio, racismo, pedofilia, incitação à violência e apologia ao golpe de Estado, as plataformas devem exercer "um dever de monitoramento ativo com vista à preservação eficiente do Estado Democrático de Direito".
No que se refere a postagens ofensivas que atingem a honra, imagem e privacidade de particulares, como injúria, calúnia e difamação, Fux apontou que a responsabilização das plataformas depende de uma "prévia e fundada notificação pelos interessados". Ele ressaltou ainda que as plataformas devem disponibilizar "meios eficientes, funcionais e sigilosos" para que os usuários lesados possam realizar denúncias.
O ministro chamou a atenção para a gravidade de casos em que postagens ofensivas são impulsionadas mediante pagamento. "É presumido de modo absoluto o efetivo conhecimento da ilicitude por parte da empresa provedora de aplicações nesses casos", afirmou. "Foi pago, é ilícito e presume-se que ela sabia. Não precisa nem notificar".
Voto intermediário - Barroso
O ministro Luís Roberto Barroso apresentou um voto complexo e detalhado, com implicações significativas para a moderação de conteúdos na internet. A vertente apresentada pelo presidente do Supremo é intermediária à proposta dos relatores Fux e Toffoli.
O ministro reconheceu a inconstitucionalidade parcial do artigo 19 do Marco Civil da Internet, mas defendeu sua manutenção com adaptações que ampliem as exceções previstas na legislação.
S. Exa. diferenciou dois regimes de responsabilidade para as plataformas digitais: a responsabilidade por conteúdos específicos gerados por terceiros e a responsabilidade pelo dever de cuidado em mitigar riscos sistêmicos.
Um dos pontos centrais do voto foi a manutenção da exigência de ordem judicial para a remoção de conteúdos relacionados a crimes contra a honra, como calúnia, injúria e difamação.
O ministro justificou a necessidade dessa medida para evitar abusos que possam limitar o debate público, sobretudo em críticas a agentes públicos ou denúncias de condutas inadequadas.
"Se crimes contra a honra pudessem ser removidos apenas por notificação privada, a próxima vez que alguém dissesse que o governador é mentiroso ou medíocre, isso estaria sujeito à remoção pela plataforma, o que seria altamente limitador do debate público."
Essa posição contrasta com sua proposta de permitir a notificação privada como regra geral para outros crimes, exceto os contra a honra. O ministro argumentou que, nesses casos, a remoção imediata é necessária para evitar a perpetuação de violações graves.
Barroso destacou que as plataformas devem ser responsabilizadas apenas de forma subjetiva, ou seja, com base na análise de sua conduta após notificações. Ele propôs um regime em que as plataformas possam avaliar se determinado conteúdo constitui crime e decidir por sua remoção. Caso o Judiciário entenda posteriormente que houve crime, a plataforma seria responsabilizada.
Além disso, o ministro abordou o dever de cuidado das plataformas digitais para mitigar riscos sistêmicos, como a disseminação de conteúdos gravemente lesivos, incluindo pornografia infantil, indução ao suicídio, tráfico de pessoas e atos de terrorismo. Ele defendeu que a responsabilidade nesse caso seja atribuída apenas em situações de falha sistêmica, e não pela ausência de remoção pontual.
Apelo ao legislador
Barroso fez um apelo ao Congresso Nacional para criar um marco regulatório que contemple a mitigação de riscos sistêmicos, incluindo auditorias, relatórios de impacto e sanções. Ele sugeriu que a supervisão dessas medidas fique a cargo de um órgão regulador independente e autônomo, e que até sua criação, as plataformas publiquem relatórios anuais de transparência.
O ministro destacou a importância de um relatório de transparência nos moldes do Digital Services Act (DSA) europeu, que permita monitorar a atuação das plataformas em relação à moderação de conteúdos, incluindo crimes graves.
Pontos centrais do voto
Barroso resumiu seu voto em três pontos principais:
- O artigo 19 do Marco Civil é insuficiente, mas não deve ser eliminado; as exceções previstas no artigo 21 devem ser ampliadas;
- A responsabilidade por conteúdos de terceiros deve ser subjetiva, e em caso de dúvida razoável, cabe ao Judiciário decidir;
- As plataformas devem assumir um dever de cuidado para mitigar riscos sistêmicos associados a conteúdos gravemente lesivos.
Após o voto de Barroso, o ministro André Mendonça pediu vista, suspendendo o julgamento, que deve voltar a acontecer no próximo semestre.
- Processos: RE 1.037.396 e RE 1.057.258