Responsabilidade civil de provedores de internet: caminhos e soluções
Ainda que a regra do art. 19 tenha falhas, eventuais mudanças no modelo atual de responsabilidade não devem ser feitas via STF.
terça-feira, 14 de março de 2023
Atualizado às 14:19
Na última semana, o caso Google v. Gonzalez, no qual a Suprema Corte Americana discutirá a aplicação da Section 230 do Communications Decency Act, tomou conta do debate público nos Estados Unidos. A Section 230, publicada em 1996, basicamente determina que nenhum provedor ou usuário de internet será (i) considerado autor de informações disponibilizadas por outrem; ou (ii) responsabilizado na esfera civil por restringir acesso a conteúdos considerados indesejáveis.
Trata-se de dispositivo muito importante, pois exime os provedores de internet de responsabilidade por publicações de seus usuários. Todavia, o cerne das discussões no caso Google v. Gonzalez é se os provedores perderiam essa espécie de "imunidade" ao recomendarem conteúdos aos seus usuários, por meio de algoritmos.
Coincidentemente ou não, também na última semana os ministros Dias Toffoli e Luiz Fux, do Supremo Tribunal Federal (STF), convocaram audiência pública para discutir questão semelhante, atrelada a dois recursos de relatoria dos ministros que serão julgados pelo Tribunal (REs 1037396 e 1057258). A audiência tratará de dois pontos, abarcados pelos Temas 987 e 533 de repercussão geral do STF: (i) a constitucionalidade do art. 19 do Marco Civil da Internet (MCI); e (ii) o dever das plataformas de fiscalizar o conteúdo publicado e retirá-lo do ar quando considerado ofensivo.
O art. 19 do MCI estabelece que o provedor de aplicações de internet só poderá ser responsabilizado civilmente por dano decorrente de conteúdo gerado por terceiro se, após ordem judicial, não tomar providências para a sua remoção. Dessa forma, se uma pessoa faz um tweet com conteúdo ofensivo e mentiroso em relação a alguém, o Twitter não será obrigado a retirar esse conteúdo, ainda que a pessoa ofendida já tenha tentado contatar a plataforma, salvo em caso de decisão judicial específica ordenando a remoção. A única exceção prevista é a do art. 21 da lei, que trata da prática de revenge porn.1
Tal "imunidade" é pautada em uma série de motivos. Em primeiro lugar, a lógica de que os provedores atuam como meros intermediários, de modo que responsabilizá-los não seria cabível. Nas palavras de Demi Getschko, conselheiro do Comitê Gestor da Internet: "Não se mata o mensageiro!"2
Esse argumento convence quando falamos de provedores de e-mail e de troca de mensagens - como WhatsApp e Telegram.3 Mas tratar plataformas complexas, como Twitter, YouTube, Instagram e TikTok como meros intermediários já parece forçoso. Os mecanismos de recomendação e impulsionamento dessas plataformas, normalmente operados por inteligência artificial, agregam vieses relevantes na disponibilização de conteúdo - essa é justamente a discussão no caso Google v. Gonzalez. Isso sem considerar o próprio design das plataformas, que envolve várias nuances e complexidades, retirando delas o teor de meras intermediárias.
Ainda assim, sob um ponto de vista mais prático esse modelo de responsabilidade parece justificável. Na ausência da regra do art. 19 do Marco Civil da Internet, caberia determinar o regime de responsabilidade aplicável. Se fosse objetiva - isto é, com obrigação de reparar independentemente de culpa4 - as consequências seriam caóticas. Ao poderem responder por danos causados por seus usuários, os provedores provavelmente teriam que desenvolver algum tipo de mecanismo de controle prévio de conteúdo, a fim de evitar que fossem responsabilizados. Grandes plataformas possuem milhões ou até mesmo bilhões de usuários, o que tornaria inviável uma análise prévia minuciosa e, ainda que isso fosse feito, ocorreria de maneira lenta e soaria com um tom de censura, gerando efeitos preocupantes à liberdade de expressão. Esse cenário inviabilizaria ainda o surgimento de novos provedores de internet, pois a necessidade de investir nesse tipo de controle seria uma barreira à entrada, causando consequências na esfera concorrencial. Seria de fato, como muitos vêm dizendo nos EUA, "o fim da internet como conhecemos".
Já se o regime fosse o da responsabilidade subjetiva, seria necessário determinar o que acarretaria culpa e, portanto, responsabilização dos provedores. Uma possibilidade defendida por alguns é que a notificação por parte da vítima já seria suficiente para exigir a retirada do conteúdo que, sob pena de responsabilidade civil do provedor. Todavia, na prática essa solução traria problemas semelhantes ao modelo da responsabilidade objetiva. Outro caminho é considerar que o impulsionamento ou a recomendação do conteúdo - como é discutido no caso Gonzalez v. Google - resultaria na responsabilidade. No entanto, a recomendação de conteúdos faz parte do cerne de grande parte das plataformas, sendo praticamente inevitável para a disponibilização de conteúdo. Logo, essa também parece não ser a solução mais adequada.
De toda forma, outras modulações de responsabilidade subjetiva para além da prevista no art. 19 do MCI podem ser discutidas, pois o cenário atual apresenta problemas que merecem atenção. Os inúmeros casos de fake news na pandemia e nas eleições presidenciais brasileiras e americanas, bem como a explícita falta de moderação em fóruns como 4Chan e 8Chan e até mesmo em alguns casos envolvendo o Telegram, deixaram claro que é preciso pensar em soluções. Um exemplo de medida viável seria exigir que para se enquadrar no regime de responsabilidade do art. 19, o provedor tenha que seguir parâmetros mínimos de moderação de conteúdo e recebimento de denúncias, além de deveres de transparência, a fim de garantir esforço do provedor para assegurar a legalidade do conteúdo circulado em sua plataforma.
Fato é que o art. 19, tendo ou não defeitos, não afronta de forma clara nenhuma norma da Constituição. Decidir pela inconstitucionalidade do dispositivo requereria interpretações bastante expansivas dos princípios constitucionais, além de possivelmente trazer as consequências danosas mencionadas. Ainda que a regra do art. 19 tenha falhas, eventuais mudanças no modelo atual de responsabilidade não devem ser feitas via STF. Trata-se de um tema muito complexo e sensível sob o ponto de vista da liberdade de expressão. Qualquer regulação desse tipo deve ser precedida por amplos debates públicos e vir do legislativo, não do judiciário.
------------------------------
1 Revenge porn é o termo utilizado para denominar a prática de divulgar, sem autorização de seus participantes, imagens, vídeos e outros materiais contendo cenas de nudez ou atos sexuais de caráter privado, mesmo que a sua gravação tenha ocorrido mediante consentimento. Trata-se de prática normalmente cometida por ex-parceiros, após o fim de relacionamentos amorosos.
2 GETSCHKO, Demi. Não se mata o mensageiro! O Estadão. São Paulo, 10 ago. 2014. Disponível em: https://www.estadao.com.br/brasil/demi-getschko/nao-se-mata-o-mensageiro/. Acesso em: 12 mar. 2023.
3 Mesmo nos aplicativos de troca de mensagens, quando tratamos de grupos e comunidades, o cenário se torna um pouco mais complexo.
4 Com base no parágrafo único do art. 927 do Código Civil, podendo haver interpretação de que os provedores exercem atividades que implicam, por sua natureza, risco para os direitos de outrem.
5 O Google recomenda determinados conteúdos ao ordenar os resultados das buscas, por exemplo, tal como o YouTube quando sugere vídeos semelhantes ao que o usuário acabou de assistir. Estes são exemplos bem claros de que a recomendação de conteúdos é central na dinâmica de várias plataformas.