AO VIVO: Barroso diverge em regulação das redes sociais e Mendonça pede vista
Sessão foi retomada com o voto-vista do ministro Luís Roberto Barroso intermediário com relação aos votos dos ministros Toffoli e Fux, relatores das ações, que votaram pela remoção de conteúdos sem ordem judicial.
Da Redação
quarta-feira, 18 de dezembro de 2024
Atualizado às 17:20
Nesta quarta-feira, 18, o STF voltou a analisar ações que discutem a necessidade de ordem judicial para que provedores de internet, como redes sociais e marketplaces, removam conteúdos de terceiros.
A sessão foi retomada com voto-vista do ministro Luís Roberto Barroso no sentido de que em alguns casos, como crimes contra a honra, seja mantida a exigência de ordem judicial para a remoção do conteúdo.
O ministro Luiz Fux, relator do RE 1.057.258, e ministro Dias Toffoli, relator da outra ação julgada em conjunto (RE 1.037.396), votaram no sentido da remoção sem ordem judicial.
Como está o julgamento
Para Fux, o art. 19 do Marco Civil da Internet promove "zona de conforto" para redes sociais. Destacou a necessidade de as plataformas digitais adotarem medidas imediatas para a remoção de conteúdos, assim que notificadas.
Toffoli votou pela inconstitucionalidade do art. 19 do Marco Civil da Internet, posicionando-se contra a obrigatoriedade de ordem judicial para a remoção de conteúdos. Em sua proposta, uma notificação extrajudicial seria, em regra, suficiente para que as plataformas agissem.
Em casos graves, descritos em um rol taxativo, as próprias redes sociais deveriam monitorar e remover conteúdos prejudiciais, independentemente de notificação.
O ministro Toffoli destacou exceções à regra, como veículos jornalísticos, que devem seguir a regulamentação específica da lei 13.188/15 (lei do direito de resposta). Também excluiu da responsabilidade civil provedores de e-mail, serviços de mensagens e plataformas de reuniões online, desde que não sejam utilizados como redes sociais.
Perfil falso
No RE 1.037.396 (tema 987) , de relatoria do ministro Dias Toffoli, uma mulher ajuizou ação na Justiça paulista após descobrir, por meio de parentes, um perfil falso no Facebook que usava seu nome e fotos para ofender terceiros. Alegando que sua vida "tornou-se um inferno", pediu a exclusão do perfil e indenização por danos morais.
O JEC de Capivari/SP ordenou a exclusão do perfil e o fornecimento do IP, mas negou o pedido de indenização, com base no art. 19 do Marco Civil da Internet. O dispositivo limita a responsabilidade civil de provedores a situações em que, após ordem judicial, eles não removam o conteúdo infrator.
A autora recorreu. A turma recursal determinou indenização de R$ 10 mil, argumentando que exigir ordem judicial específica para remover perfis falsos desconsidera o CDC e a CF, que prevê o dever de indenizar.
No STF, o Facebook questiona a decisão, defendendo a constitucionalidade do art. 19. A empresa sustenta que a norma preserva a liberdade de expressão e impede censura, ressaltando que remover conteúdo sem análise judicial transferiria a empresas privadas o poder de limitar a comunicação pública, em contrariedade à CF e ao marco civil.
Conteúdo de usuários
No RE 1.057.258 (tema 533), de relatoria do ministro Luiz Fux, o STF analisa a responsabilidade de provedores de aplicativos e ferramentas de internet por conteúdo gerado por usuários. Aborda também a possibilidade de remoção de conteúdo que possa violar direitos de personalidade, incitar o ódio ou propagar notícias falsas mediante notificação extrajudicial.
No caso, a Google recorreu de acórdão da 1ª turma recursal cível do JEC de Belo Horizonte/MG, que confirmou a sentença condenatória responsabilizando a rede social Orkut pela remoção da página intitulada "Eu odeio a Liandra", além de determinar o pagamento de R$ 10 mil por danos morais. Mesmo após notificação, a Google se recusou a retirar do ar a página que continha ofensas à vítima.
Voto do relator - Toffoli
Ministro Dias Toffoli, em seu voto, criticou a imunidade conferida às plataformas pelo art. 19 do Marco Civil da Internet, argumentando que a norma perpetua conteúdos prejudiciais no ambiente digital.
Defendeu que o mesmo rigor aplicado ao mundo físico deve valer no virtual, e que redes sociais priorizam lucros ao promover desinformação e conteúdos nocivos, impulsionados por algoritmos.
Ressaltou a falta de regulamentação sobre liberdade de expressão e citou reflexos como ataques ao STF e ao Capitólio.
Toffoli votou pela inconstitucionalidade do art. 19 e propôs que notificações extrajudiciais sejam suficientes para responsabilizar plataformas em casos de violações de intimidade, honra e imagem. Em situações graves, como contas falsas, riscos a direitos fundamentais ou à integridade eleitoral, defendeu a responsabilização objetiva das redes, independentemente de notificação.
O ministro sugeriu exceções para provedores de e-mail, serviços de mensagens e plataformas de reuniões online, desde que não atuem como redes sociais, e destacou a possibilidade de retroatividade da responsabilidade objetiva, buscando um equilíbrio entre liberdade de expressão e reparação de danos.
Para blogs e plataformas jornalísticas, propôs a aplicação da lei 13.188/15 (lei do direito de resposta).
Voto do relator - Fux
Em seu voto, ministro Luiz Fux criticou a "zona de conforto" das plataformas digitais, que só podem ser responsabilizadas por conteúdos prejudiciais de terceiros após ordem judicial específica. Para o ministro, o art. 19 do Marco Civil da Internet permite essa inércia.
Ainda, destacou o lucro dessas empresas com a viralização de conteúdos degradantes, contrastando com a imprensa tradicional, que verifica informações antes da publicação. Para o ministro, a dignidade humana, um dos pilares da República, deve ser prioridade no ordenamento jurídico.
O ministro entendeu que não é compatível com a CF, portanto, um regime de responsabilidade civil que isente amplamente empresas provedoras de aplicações de internet do dever de atuar, dentro de suas possibilidades, para remover conteúdos postados em redes sociais por meio de suas plataformas, especialmente quando previamente notificadas.
Entendeu que as empresas têm o dever de agir quando tiverem "ciência inequívoca do conhecimento dos atos ilícitos, seja por ser evidente, seja porque devidamente informado por qualquer meio idôneo".
Destacou que, em casos de conteúdos evidentemente ilícitos, como discursos de ódio, racismo, pedofilia, incitação à violência e apologia ao golpe de Estado, as plataformas devem exercer "um dever de monitoramento ativo com vista à preservação eficiente do Estado Democrático de Direito".
No que se refere a postagens ofensivas que atingem a honra, imagem e privacidade de particulares, como injúria, calúnia e difamação, Fux apontou que a responsabilização das plataformas depende de uma "prévia e fundada notificação pelos interessados". Ele ressaltou ainda que as plataformas devem disponibilizar "meios eficientes, funcionais e sigilosos" para que os usuários lesados possam realizar denúncias.
O ministro chamou a atenção para a gravidade de casos em que postagens ofensivas são impulsionadas mediante pagamento. "É presumido de modo absoluto o efetivo conhecimento da ilicitude por parte da empresa provedora de aplicações nesses casos", afirmou. "Foi pago, é ilícito e presume-se que ela sabia. Não precisa nem notificar".
- Processos: RE 1.037.396 e RE 1.057.258