STF julga remoção de conteúdo por redes independente de ordem judicial
Duas ações são analisadas em conjunto.
Da Redação
quarta-feira, 27 de novembro de 2024
Atualizado às 18:25
Nesta quarta-feira, 27, o STF, em sessão plenária, começou a julgar se provedores de internet podem ser responsabilizados por não removerem conteúdo de terceiros mesmo sem ordem judicial. Será analisado o art. 19 da lei 12.965/14 - conhecida como Marco Civil da Internet.
O dispositivo estabelece que, para assegurar a liberdade de expressão e impedir a censura, "o provedor de aplicações de internet somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências para, no âmbito e nos limites técnicos do seu serviço e dentro do prazo assinalado, tornar indisponível o conteúdo apontado como infringente, ressalvadas as disposições legais em contrário".
A sessão foi destinada à leitura dos relatórios e à oitiva das partes e dos amici curiae. A análise do caso será retomada na sessão de quinta-feira, 28.
Perfil falso
No RE 1.037.396 (tema 987) , de relatoria do ministro Dias Toffoli, uma mulher ajuizou ação na Justiça paulista após descobrir, por meio de parentes, um perfil falso no Facebook que usava seu nome e fotos para ofender terceiros. Alegando que sua vida "tornou-se um inferno", pediu a exclusão do perfil e indenização por danos morais.
O JEC de Capivari/SP ordenou a exclusão do perfil e o fornecimento do IP, mas negou o pedido de indenização, com base no art. 19 do Marco Civil da Internet. O dispositivo limita a responsabilidade civil de provedores a situações em que, após ordem judicial, eles não removam o conteúdo infrator.
A autora recorreu. A turma recursal determinou indenização de R$ 10 mil, argumentando que exigir ordem judicial específica para remover perfis falsos desconsidera o CDC e a CF, que prevê o dever de indenizar.
No STF, o Facebook questiona a decisão, defendendo a constitucionalidade do art. 19. A empresa sustenta que a norma preserva a liberdade de expressão e impede censura, ressaltando que remover conteúdo sem análise judicial transferiria a empresas privadas o poder de limitar a comunicação pública, em contrariedade à CF e ao marco civil.
Representando o Facebook, o advogado José Rollemberg Leite Neto, do Escritório Eduardo Ferrão Advogados Associados, afirmou que a demora para exclusão da página ocorreu em razão de divergências quanto à falsidade do perfil e à possível violação dos termos de uso contratuais. Ele destacou que como não era flagrante a ilegalidade, não se pode dizer que a rede social estava errada, pois, havendo fortes dúvidas sobre a denúncia feita, quis aguardar decisão do Judiciário, encontrando respaldo no art. 19 do Marco Civil da Internet.
Afirmou que a discussão central do caso gira em torno do dever de fiscalização de conteúdos por provedores, a obrigatoriedade de remoção mediante simples notificação extrajudicial e a responsabilidade dos provedores antes de uma decisão judicial. Segundo o advogado, o art. 19 é constitucional porque ele mesmo revela valores ao qual se ancora: liberdade de expressão e vedação da censura.
Ressaltou que a liberdade de expressão depende da redução do risco de censura por provedores e se complementa com a necessidade de decisão judicial para analisar manifestações controversas.
Citou pareceres de especialistas, como o do ministro Nelson Jobim e do professor Ronaldo Lemos, que destacaram que a imensa subjetividade em definir conteúdos ofensivos e a jurisprudência brasileira, altamente protetiva dos direitos de personalidade, poderiam levar os provedores a suspenderem conteúdos de forma constante diante de notificações recebidas, criando um ambiente desfavorável à liberdade de expressão.
Também em parecer, a professora Claudia Lima Marques reforçou que o art. 19 não conflita com as proteções constitucionais e legais previstas no regime brasileiro de defesa do consumidor.
O advogado afirmou que é impossível permitir que os provedores decidam unilateralmente sobre conteúdos críticos, sendo necessária a mediação judicial em casos de dúvida. Frisou que isso é essencial para preservar o jornalismo profissional, já que grande parte do conteúdo compartilhado em plataformas digitais tem origem nesses veículos, cuja exclusão pode prejudicar o debate público.
O Facebook também apontou o esforço das plataformas na autorregulação, com investimentos bilionários em tecnologias e inteligência artificial para combater práticas ilícitas, como pedofilia, violência e discurso de ódio. Regras e termos de uso robustos foram destacados como parte desse compromisso com a segurança e a integridade no ambiente digital.
Sustentou subsidiariamente que, em caso de eventual interpretação conforme do art. 19 do Marco Civil da Internet, as restrições devem ser limitadas à mecânica prevista no art. 21, que regula a hipótese de notificação e retirada, mas não se aplica a toda e qualquer notificação recebida.
A empresa argumentou que, nessa moldura subsidiária, as situações contempladas deveriam ser restritas a casos graves e objetivos, como exploração sexual infantil, terrorismo, racismo, abolição violenta do estado de direito e tentativa de golpe de Estado. Segundo a rede social, mais do que isso, como conceitos abertos como fake news, desinformação e crimes contra a honra incentivariam remoções excessivas e levariam à judicialização massiva para assegurar a publicação de conteúdos com tais características.
Veja trecho da fala:
Conteúdo de usuários
No RE 1.057.258 (tema 533), de relatoria do ministro Luiz Fux, o STF analisa a responsabilidade de provedores de aplicativos e ferramentas de internet por conteúdo gerado por usuários. Aborda também a possibilidade de remoção de conteúdo que possa violar direitos de personalidade, incitar o ódio ou propagar notícias falsas mediante notificação extrajudicial.
No caso, a Google recorreu de acórdão da 1ª turma recursal cível do JEC de Belo Horizonte/MG, que confirmou a sentença condenatória responsabilizando a rede social Orkut pela remoção da página intitulada "Eu odeio a Liandra", além de determinar o pagamento de R$ 10 mil por danos morais. Mesmo após notificação, a Google se recusou a retirar do ar a página que continha ofensas à vítima.
O advogado Eduardo Bastos Furtado de Mendonça, do escritório Barroso Fontelles, Barcellos, Mendonça & Associados, representando a Google, destacou que a empresa reconhece os desafios da desinformação e dos discursos de ódio na internet e fora dela, mas alertou contra uma visão simplista que atribua às plataformas a responsabilidade pela intolerância, ódio e incivilidade.
Segundo o causídico, a internet ampliou a liberdade de expressão ao possibilitar que cada pessoa se manifeste diretamente. E que isso, embora emancipador, pode ser mais incômodo e evidenciar momentos de controvérsia, dissenso e ressentimentos, mas que não é menos democrático. Ele pontuou ainda que, na maioria das vezes, as opiniões são exercidas dentro dos limites da legalidade.
O representante reforçou que discursos ilícitos podem ser amplificados, sendo necessário coibi-los e responsabilizar os infratores. Salientou que o art. 19 do Marco Civil da Internet não suprime limites e não dificulta a responsabilização dos infratores e que seu fim não acabaria com os problemas que têm que ser resolvidos. Também destacou que o dispositivo não impede que conteúdos nocivos sejam removidos sem decisão judicial prévia, procedimento que ocorre na imensa maioria dos casos.
Ainda de acordo com ele, não existe inércia nas plataformas como modelo de negócios. Pois, pela pressão das autoridades e porque a maioria dos usuários repudia conteúdo ofensivo não faria sentido um modelo de negócio inerte.
Afirmou que os casos levados ao Judiciário geralmente envolvem conteúdos de fato controversos, cuja análise judicial é essencial. Ele alertou para os riscos de se criar incentivos para a remoção automática de conteúdos sem o devido exame judicial.
Manifestou preocupação com mudanças genéricas no Marco Civil da Internet que possam implicar a atribuição de um dever de censura a terceiros. Segundo o posicionamento apresentado, países democráticos não adotam a responsabilidade objetiva de plataformas, já que isso levaria a um monitoramento preventivo inviável e contrário à vedação da censura prévia.
Veja o momento:
O modelo considerado mais adequado, segundo o representante da Google, é aquele que estabelece a notificação como marco inicial para a responsabilização, como ocorre no art. 21 do Marco Civil, que regula casos de conteúdos íntimos não consentidos.
A empresa, ademais, defende que o atual formato do Marco Civil proporciona equilíbrio entre liberdade de expressão e responsabilidade, evitando sobrecargas impraticáveis para as plataformas e respeitando os direitos dos usuários.
Remoção sem ordem judicial
O advogado Daniel Pires Novais Dias, representante da ABCID - Associação Brasileira de Centros de Inclusão Digital, criticou a exigência de ordem judicial para a responsabilização de plataformas digitais, apontando que essa prática não promove a liberdade de expressão de forma eficaz.
De acordo com Dias, a exigência da ordem judicial baseia-se em uma lógica binária de remoção de conteúdo, mas ignora outras alternativas, como rotulação de informações por verificadores de fatos e a diminuição do alcance de publicações consideradas inadequadas.
Destacou que a imposição prévia desse requisito gera ônus desproporcional à população, especialmente às pessoas com menor nível de escolaridade. Ele também criticou as plataformas digitais por sua postura em relação à remoção de conteúdo.
Ademais, disse que as remoções são feitas aos milhões e que a questão é se elas serão realizadas apenas por afronta aos termos de uso da plataforma.
O especialista defendeu uma interpretação restritiva do art. 19 do Marco Civil da Internet, sugerindo que as plataformas só deveriam ser isentas de responsabilidade pelos conteúdos de terceiros caso observem um rigoroso dever de diligência. Esse dever incluiria a adoção de medidas adequadas de moderação de conteúdo e a manutenção de canais efetivos de atendimento aos usuários.
Veja trecho da fala:
- Processos: RE 1.037.396, RE 1.057.258