Em nossa coluna anterior (parte I), levantamos o problema da imputação de responsabilidade civil às empresas de tecnologia pelo conteúdo das postagens dos usuários das redes sociais, a partir da investigação a respeito da natureza jurídica dos serviços por elas prestados, com base no franco debate já inaugurado a respeito no sistema de justiça norte-americano. Nesta segunda parte, analisaremos o tema no contexto de nosso sistema de justiça.
Seguindo as diretrizes da Section 230 do Communications Decency Act (CDA) do U.S Code - segundo as quais as companhias de tecnologia são, em regra, isentas de responsabilidade referentes ao conteúdo publicado por usuários -, a lei 12.965/2014, conhecida no Brasil como Marco Civil da Internet, também isenta, em regra, a responsabilidade dos provedores de conexão à internet por danos decorrentes de conteúdo gerado por terceiros.1
A partir da entrada em vigor da referida legislação, a controvérsia passou a girar em torno da constitucionalidade do seu artigo 192, que condiciona e restringe a incidência da responsabilidade civil dos provedores de internet, websites e gestores de aplicativos de redes sociais, ao desatendimento de ordem judicial específica, que determine a exclusão do conteúdo ilícito e lesivo postado. Ou seja, a responsabilização se daria tão somente pelo controle da retirada da publicação, mas não pelo seu conteúdo.
Como não é difícil perceber, trata-se de alteração do regime até então vigente, que vai na contramão da proteção das vítimas. Os ônus da necessária judicialização e a demora da correspondente prestação jurisdicional acarretam-lhes não só maior tempo de exposição aos danos, como também o seu agravamento.
Conforme explica MARTINS, "quanto mais se limita a responsabilidade do provedor, na proporção inversa se aumenta a responsabilidade do usuário, cuja posição resta fortemente enfraquecida, diante disso as consequências do dano terminam repousando sobre os ombros da própria vítima".3
É interessante notar que a orientação jurisprudencial de nossos tribunais, construída anteriormente ao Marco Civil da Internet, revelava-se menos hostil às vítimas, na medida em que lhes permitia notificar direta e extrajudicialmente os provedores, instando-os a retirar as informações difamantes a terceiros manifestadas por seus usuários.4
Na verdade, essa anterior orientação reconhecia aos provedores de internet o status não de platforms, mas sim de publishers, na medida em que lhes imputava a obrigação de exercer efetivo juízo de valor sobre o conteúdo das publicações de seus usuários, para o fim de excluí-las ou não – ainda que somente apenas uma notificação extrajudicial que lhes desse formal conhecimento sobre as mesmas.
De forma diversa, a redação conferida aos artigos 18 e 19 da lei 12.965/2014, sutil e silenciosamente, implicou uma total reconfiguração da natureza jurídica dos provedores, requalificando seu status. Com efeito, na medida em que se condiciona a imputação de sua responsabilidade civil à uma prévia ordem judicial, o legislador brasileiro simplesmente desonerou as empresas provedoras de qualquer obrigação de valorar o conteúdo veiculado na internet por seus usuários. Isso implica, na realidade, que os provedores passaram a ser considerados meras neutral platforms.
Trata-se de uma profunda alteração do regime jurídico das empresas de tecnologia que, para além dos já referidos efeitos nocivos à adequada proteção das vítimas, imuniza as operadoras, garantindo-lhes, na prática, um regime de plena irresponsabilidade civil sobre todo e qualquer conteúdo ilícito e lesivo postado por seus usuários.
Por tudo isso, e apesar desse novo regime jurídico que os artigos 18 e 19 do Marco Civil da Internet concede às operadoras, é preciso ponderar se o ordenamento jurídico nacional viabiliza outras soluções que, quando menos, compatibilizem e estabilizem os diversos interesses em jogo.
No sistema norte-americano, os provedores, tomando conhecimento do conteúdo considerado ofensivo, estão autorizados a removê-lo diretamente pelo sistema do notice and take down. Apesar desse sistema não ser compreendido como instituidor de um dever geral de vigilância a priori aos provedores, ao menos deixa claro que, diante da comunicação do conteúdo abusivo por parte da vítima, passam a ser responsáveis quando se omitem na avaliação do conteúdo, não o excluindo.
É evidente que, às empresas provedoras, é extremamente conveniente sustentar que não possuem qualquer poder (nem dever) de supervisão das informações inseridas pelos usuários. Daí a insistência dessas corporações em se qualificar como meras platforms, cuja atuação se circunscreveria à intermediação da transmissão de dados e não ao controle de seu conteúdo, até mesmo como forma de assegurar e proteger o sagrado direito à informação e à liberdade de expressão.
A assunção dessa tese, na verdade, representa uma completa inversão e banalização de valores essenciais da pessoa, na medida em que a mera utilização do argumento da proteção à liberdade de expressão não pode se prestar, em última instância, à garantia da irresponsabilidade dos provedores.5
De acordo com BALKIN, "o objetivo da liberdade de expressão é proteger e fomentar uma cultura democrática. Uma cultura democrática é uma cultura em que os indivíduos têm uma oportunidade justa de participar nas formas de criação de significado e de influência mútua que os constituem como indivíduos. (...) A tecnologia de comunicação disponível para as pessoas e a maneira como essas pessoas usam efetivamente essa tecnologia de comunicação molda os limites e os problemas da liberdade de expressão independentemente da época."6
É preciso salientar, por outro lado, que as empresas de tecnologia não são proibidas de, diante de conteúdos reputados ofensivos inseridos em suas plataformas, excluí-los unilateralmente. Essa possibilidade gera ainda mais controvérsias acerca do papel moderador desenvolvido pelas plataformas, até mesmo em função das expressas condições estabelecidas pelas empresas de tecnologia nos contratos firmados com seus usuários.
De fato, nos contratos de adesão dos usuários às redes sociais, invariavelmente são reguladas as políticas de uso e de acesso aos serviços, assim como a previsão de limitação quanto aos tipos de conteúdo e comportamentos permitidos na plataforma.
Dessa forma, se há efetivamente um modelo de triagem prévia a respeito do conteúdo e alguma forma de ingerência do seu fluxo, pelos quais as plataformas podem selecionar o conteúdo postado por seus usuários, parece evidente que se está a admitir o exercício de um poder moderador cujos critérios de funcionamento, apesar de ainda bastante obscuros, escancaram não apenas a possibilidade técnica do exercício do controle de conteúdos como, também, a viabilidade de sua responsabilização.7
Como afirmam FRAZÃO e MEDEIROS, "Tal raciocínio é ainda mais pertinente quando se trata de agentes econômicos que criam o risco respectivo e dele ontem grande proveito econômico. Daí por que, diante do poder e dos benefícios de que usufruem, é necessário que também suportem os danos da atividade".8
Para MARTINS, "a partir do momento em que o provedor intervém na comunicação, dando-lhe origem, escolhendo ou modificando o conteúdo ou selecionando o destinatário, passa a ser considerado responsável, pois a inserção de conteúdos ofensivos constitui fortuito interno, ou seja, risco conhecido e inerente ao seu empreendimento. Conclui-se, dessa forma, ser objetiva, com fundamento no artigo 14 do Código de Defesa do Consumidor, a responsabilidade pelo fato do serviço do detentor do site."9
Apesar disso, tal como passou a ocorrer no Brasil por via da interpretação da literalidade dos artigos 18 e 19 do Marco Civil da Internet, parece fácil às empresas de tecnologia furtar-se ao ônus de controle dos conteúdos inseridos por seus usuários sob a alegação de que não deteriam competência para efetuar qualquer tipo de juízo de valor sobre os mesmos - atribuição essa que competiria prévia e prioritariamente ao Poder Judiciário.
Por tal motivo, é de suma importância aguardar a definição, por parte do Supremo Tribunal Federal, do regime de responsabilidade civil dos provedores, no âmbito do julgamento de dois temas de repercussão geral já fixados. Sobre esses temas, foi designada audiência pública objetivando aprofundar as discussões para o enfrentamento da constitucionalidade do artigo 19 do Marco Civil da Internet, através do sopesamento dos direitos fundamentais envolvidos.10
Todavia, é necessário dar um passo atrás. A imputação da responsabilidade civil dos provedores de internet não deve se prestar apenas à ordem para retirada dos conteúdos lesivos, mas sim, à readequação da natureza jurídica dessas empresas e dos serviços por elas prestados, tornando-se imprescindível a discussão de modelos de atuação, aos quais se exige a edificação de novos procedimentos e novas metodologias de operação.
Para além disso, o que está em jogo transcende os interesses das vítimas em obter justa indenização pelos danos sofridos. Como já levantamos na primeira parte da presente coluna, as Big Techs passaram a dominar a infraestrutura de comunicação, exercendo o controle e a difusão de seu conteúdo de forma unilateral. Na prática, elas substituíram o Estado na regulação da comunicação entre as pessoas, passando a desempenhar um papel de inegável interesse público, na medida em que se tornaram fonte de informação primária para bilhões de usuários.
Portanto, em um contexto mais publicista do que privado, é necessário discutir uma nova arquitetura de operação dessas empresas, fundada na premissa de que sua atuação impacta profundamente o interesse público. Nas palavras de KLONICK, as "plataformas devem ser pensadas como operadoras dos Novos Governantes do discurso online. Esses Novos Governantes são parte de um novo modelo tripartite de discurso que se situa entre o estado e os usuários-editores. Elas são entidades privadas e autorreguladas que são motivadas econômica e normativamente para refletir a cultura democrática e as expectativas de discurso livre de seus usuários. (...) A maior ameaça que um sistema privado de governança impõe para a cultura democrática é a perda da oportunidade equânime de participar da plataforma, o que é agravado pela falta de accountability direta do sistema para com seus usuários. A primeira solução para esse problema não deveria vir de mudanças na Seção 230 ou novas interpretações da Primeira Emenda, mas mudanças simples nos sistemas de arquitetura e governança postos em prática por essas plataformas. Se essas mudanças não funcionarem e se houver necessidade de alguma regulação, seria prudente haver um balanço entre a preservação das forças democratizantes da internet e a preservação do poder gerador dos Novos Governantes, com um entendimento amplo e acurado de como e por que essas plataformas operam".11
Somente a definição de um novo modelo de arquitetura e de governança para as empresas de tecnologia possibilitará seu adequado enquadramento em um regime de responsabilidade, comprometido com os valores sociais da atualidade. Não se trata meramente de uma regulação de relações privadas entre usuários e provedores.
Nesse contexto, a necessária mudança do design das plataformas digitais deve passar pela implementação de medidas de accountability para com seus usuários, conforme propõe KLONICK.
A primeira proposta seria a de se estabelecer a regulação por meio de um modelo de controle acionista. Todavia, esse modelo poderia ser comprometido em virtude da natural pretensão dos acionistas na maximização dos lucros da empresa – o que talvez não corresponda às preocupações dos usuários sobre a igualdade de acesso e o regime de responsabilidade democrática.
A segunda proposta seria o registro das empresas de tecnologia como de utilidade pública (Public Benefit Corporations), o que permitiria que o benefício público fosse um propósito da empresa, para além da meta tradicional de maximização de lucro.
A terceira proposta seria a adoção voluntária de um compromisso com a noção de um "devido processo tecnológico."12 Trata-se de um modelo inovador, voltado às melhores práticas no uso de tecnologia pela agência, pautado na compreensão dos custos-oportunidade (trade-offs) de automação e de discrição humana, assegurando, ao mesmo tempo, os direitos dos indivíduos de notificação, conferindo transparência à regulamentação e à adjudicação.13
Ainda no intuito de fornecer parâmetros de accountability das empresas operadoras de internet, para CITRON, a adoção de "Um padrão de cuidado que inclui o anonimato rastreável permitiria à sociedade desfrutar da liberdade de expressão que o anonimato facilita, sem eliminar os meios de combater o lado negro do anonimato - a tendência de agir destrutivamente quando acreditamos que não podemos ser pegos."14
Observando-se a preocupação mundial com a regulação do design das empresas de tecnologia, parece certo que elas mesmas não podem mais se prestar ao papel de negar sua própria essência e suas responsabilidades, passadas e futuras.
__________
1 Seção III - Da Responsabilidade por Danos Decorrentes de Conteúdo Gerado por Terceiros
Art. 18. O provedor de conexão à internet não será responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros.
2 Art. 19. Com o intuito de assegurar a liberdade de expressão e impedir a censura, o provedor de aplicações de internet somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências para, no âmbito e nos limites técnicos do seu serviço e dentro do prazo assinalado, tornar indisponível o conteúdo apontado como infringente, ressalvadas as disposições legais em contrário.
§ 1º A ordem judicial de que trata o caput deverá conter, sob pena de nulidade, identificação clara e específica do conteúdo apontado como infringente, que permita a localização inequívoca do material.
§ 2º A aplicação do disposto neste artigo para infrações a direitos de autor ou a direitos conexos depende de previsão legal específica, que deverá respeitar a liberdade de expressão e demais garantias previstas no art. 5º da Constituição Federal.
§ 3º As causas que versem sobre ressarcimento por danos decorrentes de conteúdos disponibilizados na internet relacionados à honra, à reputação ou a direitos de personalidade, bem como sobre a indisponibilização desses conteúdos por provedores de aplicações de internet, poderão ser apresentadas perante os juizados especiais.
§ 4º O juiz, inclusive no procedimento previsto no § 3º, poderá antecipar, total ou parcialmente, os efeitos da tutela pretendida no pedido inicial, existindo prova inequívoca do fato e considerado o interesse da coletividade na disponibilização do conteúdo na internet, desde que presentes os requisitos de verossimilhança da alegação do autor e de fundado receio de dano irreparável ou de difícil reparação.
Art. 20. Sempre que tiver informações de contato do usuário diretamente responsável pelo conteúdo a que se refere o art. 19, caberá ao provedor de aplicações de internet comunicar-lhe os motivos e informações relativos à indisponibilização de conteúdo, com informações que permitam o contraditório e a ampla defesa em juízo, salvo expressa previsão legal ou expressa determinação judicial fundamentada em contrário.
Parágrafo único. Quando solicitado pelo usuário que disponibilizou o conteúdo tornado indisponível, o provedor de aplicações de internet que exerce essa atividade de forma organizada, profissionalmente e com fins econômicos substituirá o conteúdo tornado indisponível pela motivação ou pela ordem judicial que deu fundamento à indisponibilização.
3 MARTINS, Guilherme Magalhães. Responsabilidade civil por acidente de consumo na internet. 3 ed., revista, atualizada e ampliada. São Paulo: Revista dos Tribunais, 2020, p. 416.
4 REsp 1175675/RS, Rel. Ministro Luis Felipe Salomão, Quarta Turma, julgado em 09/08/2011.
5 "A liberdade de expressão no debate democrático distingue-se, indubitavelmente, da veiculação dolosa de conteúdos voltados a simplesmente alterar a verdade factual e, assim, alcançar finalidade criminosa de natureza difamatória, caluniosa ou injuriosa. Quando, a pretexto de se expressar o pensamento, invadem-se os direitos da personalidade, com lesão à dignidade de outrem, revela-se o exercício de um direito em desconformidade com o ordenamento jurídico, o que legitima a responsabilização cível e criminal pelo conteúdo difundido, além do direito de resposta" ((REsp 1897338/DF, Rel. Ministro Luis Felipe Salomão, Quarta Turma, julgado em 24/11/2020, DJe 05/02/2021).
6 Balkin, Jack M. Free Speech in the algorithmic society: big data, private governance, and new school speech regulation”. University of California at Davis Law Review, Vol.51: 1149-1210, 2018.
7 Nesse contexto, afirmou o Ministro Luiz Felipe Salomão que "a alegada incapacidade técnica de varredura das mensagens incontroversamente difamantes é algo de venire contra factum proprium, inoponível em favor do provedor de internet (REsp n. 1.306.157/ SP, Rel. Ministro Luiz Felipe Salomão, Quarta Turma, julgado em 17/12/2013, Dje 24/03/2014).
8 Aludem as autoras que "não é necessário o apoio nos pressupostos da responsabilidade objetiva. Afinal, o próprio art. 187 do Código Civil deixa claro que abusa do seu direito todo aquele que o exerce de forma a exceder manifestamente os limites impostos pelas finalidades sociais e econômicas do direito e pela boa-fé". FRAZÃO, ANA e MEDEIROS, Ana Rafaela. Responsabilidade civil dos provedores de internet: a liberdade de expressão e o art. 19 do Marco Civil. Migalhas de Responsabilidade Civil. Disponível aqui. Acesso em 01 de março de 2021.
9 MARTINS, Guilherme Magalhães. Responsabilidade civil por acidente de consumo na internet. 3 ed., revista, atualizada e ampliada. São Paulo: Revista dos Tribunais, 2020, p. 434.
10 "Tema 987 – Discussão sobre a constitucionalidade do artigo 19 da lei 12.965/2014 que determina a necessidade de prévia e específica ordem judicial de exclusão de conteúdo para a responsabilização civil do provedor de internet, websites e gestores de aplicativos de redes sociais por danos decorrentes de atos ilícitos praticados por terceiros. (RE 1.037.396-SP, Ministro Relator Toffoli). E o Tema 533 - Dever de empresa hospedeira de sítio na internet fiscalizar o conteúdo publicado e de retirá-lo do ar quando considerado ofensivo, sem intervenção do Judiciário. (RE 1.057.258-MG, Relator Ministro Luiz Fux)."
11 KLONICK, Kate. The New Governors: The People, Rules, and Processes Governing Online Speech. Harvard Law Review. Vol. 131, pp. 1598-1670, 2018, p. 1603.
12 CITRON, Danielle Keats. Technological Due Process. Washington University Law Review. Vol. 85, Ed. 6. 2008.
13 KLONICK, Kate. The New Governors: The People, Rules, and Processes Governing Online Speech. Harvard Law Review. Vol. 131, pp. 1598-1670, 2018, p.1666-1667.