Plataformas Digitais: Platforms ou Publishers?
Um dos temas que mais tem despertado atualmente a atenção dos juristas e dos operadores dos sistemas de justiça mundo afora relaciona-se à responsabilidade civil das plataformas digitais pelo conteúdo das postagens realizadas por seus usuários, sobretudo por via das redes sociais.1
Os debates sobre o tema têm por premissa inicial a qualificação da natureza jurídica das plataformas digitais, com relevantes impactos sobre a imputabilidade e os limites de suas responsabilidades.
Por um lado, sustenta-se que as empresas de tecnologia, ao disponibilizarem canais digitais para a inserção de dados por seus usuários, estariam atuando como meras Platforms, ou seja, como instituições neutras que tão somente permitem a comunicação e a distribuição de informações entre seus usuários, não tendo qualquer ingerência sobre o seu conteúdo ou procedência.
Por outro lado, sustenta-se que referidas empresas, para muito além da disponibilização das plataformas digitais das redes sociais, acabam operando como autênticas Publishers, na medida em que possuem, por força de contrato ou da Lei, controles quanto ao conteúdo das postagens inseridas pelos consumidores, tendo poderes, inclusive, para a suspensão e para o cancelamento de contas dos usuários.
Nesse sentido, nos Estados Unidos da América, ainda no ano de 1996, com o intuito de balizar o entendimento jurisprudencial das Cortes norte-americanas2 a respeito da natureza jurídica das plataformas digitais que hospedam redes sociais, uma importante inovação legislativa definiu as empresas provedoras de serviços interativos de computador como neutral platforms.
Tratou-se da Section 230, incluída no Communications Decency Act (CDA) do U.S Code, por via da qual as companhias foram isentadas de responsabilidade quanto ao conteúdo publicado por usuários: "No provider or user of an interactive computer service shall be treated as the publisher or speaker of any information provided by another information content provider".3
Contudo, apesar da caracterização legislativa norte-americana das empresas de tecnologia como platforms - meras hospedeiras do material inserido pelos usuários -, foi-lhes assegurada autonomia para moderar amplamente o conteúdo das postagens dos usuários.
A contradição estava instaurada. Vale dizer, a bem da verdade, que a Section 230 originalmente serviu como escudo contra a imputabilidade de responsabilidade para os Provedores de Serviços de Internet (ISPs), em uma época na qual o acesso à internet era viabilizado pela contratação de empresas como a AOL e a CompuServe.
A rede mundial de computadores acabava de ser inventada. Nessa conjuntura ainda rudimentar da internet, a regulação protetiva das plataformas online teve sua razão de ser, na medida em que ainda não se tinha ideia a respeito da projeção que a comunicação online viria a tomar.4 Nesse ambiente, o exercício do poder moderador a respeito do conteúdo postado pelos usuários das operadoras era visto como eventual e excepcional.
Gradativamente, contudo, na exata medida da crescente repercussão da publicação de conteúdos considerados abusivos e do alcance de seus efeitos nocivos que instauraram um panorama de caos, tanto o Parlamento quanto o Poder Judiciário dos EUA passaram a questionar o entendimento até então consolidado sobre a natureza jurídica das plataformas digitais.
A insuficiência e os riscos da autorregulação
Como se percebe, trata-se de assunto extremamente polêmico cujas repercussões sobre o direito da responsabilidade civil são enormes.
É fato que, para a utilização dos serviços das plataformas online, os usuários devem concordar com os "termos de serviço, política de privacidade e regras". A partir do "acordo de usuário do serviço" criam-se direitos e obrigações para provedores e usuários.
Nos “termos de uso, serviços e políticas de conteúdo” divulgados por empresas de tecnologia como o Facebook/Meta, Instagram e o Twitter, é comum a descrição de que elas atuariam como neutral platforms, sendo os seus usuários cientificados acerca da sua exclusiva responsabilidade sobre os conteúdos postados – sobretudo por se tratar de mensagens pelos mesmos elaboradas, e que não representam a opinião das operadoras.
Contudo, os provedores se reservam o direito de prever limitações quanto ao conteúdo e quanto a comportamentos permitidos na plataforma, sob pena de suspensão ou a cessação da conta, residindo justamente nessa espécie de poder moderador uma das maiores controvérsias a respeito da natureza dos serviços prestados pelas plataformas digitais.
Diante das polêmicas envolvendo a contraposição entre o poder moderador exercido pelas empresas de tecnologia e exercício da liberdade de expressão, as próprias plataformas digitais passaram a criar mecanismos de autorregulação, como, por exemplo, a criação pelo Facebook/Meta/Instagram de um Comitê denominado Oversight Board, com vistas a garantir a liberdade de expressão por meio de uma mediação independente a respeito dos conteúdos postados.
De acordo com o próprio Comitê, a finalidade de sua criação foi a de "ajudar o Facebook a responder a algumas das perguntas mais difíceis sobre o tema da liberdade de expressão: o que remover, o que permitir e por quê".5
Não obstante o reconhecimento da necessidade de uma autorregulação por parte das próprias plataformas digitais, inúmeras são as críticas a esse modelo, sobretudo na medida das desconfianças a respeito da independência e da neutralidade das empresas de tecnologia. O poder moderador - há muito atribuído às operadoras de internet, não apenas se revela insuficiente, como altamente questionável.
Nunca é o bastante recordar que as redes sociais passaram a constituir fonte de informação primária para bilhões de usuários, sendo utilizadas inclusive como instrumento preponderante (senão único) de divulgação de informações oficiais de governos mundo afora. Não é exagero afirmar, assim, que as Big Techs passaram a dominar praticamente toda a infraestrutura de comunicação, desempenhando um papel de inegável interesse público.6
Como se percebe, a questão fundamental que se coloca diz respeito aos enormes perigos representados pelo controle privado do conteúdo das informações e das comunicações online, por parte de poucos e empoderados grupos corporativos, que passam, assim, a praticamente substituir o Estado na regulação da comunicação entre as pessoas.
Tal cenário aponta para a necessidade de uma adequada regulação pública, para além do aperfeiçoamento da autorregulação privada das plataformas digitais.
Para tanto, novas arquiteturas de operação dessas empresas devem ser desenhadas e fiscalizadas, no intuito de compatibilizar o exercício de direitos e garantias individuais fundamentais (tais como a livre iniciativa e a liberdade de expressão), com interesses públicos notórios (tais como a proteção do sistema eleitoral democrático, da liberdade de imprensa e do dever de colaboração das plataformas digitais com os sistemas estatais de persecução criminal, dentre outros).7
Modelos de regulação pública: Online Safety Bill (Reino Unido) e Digital Services Act (União Europeia)
Nesse sentido, ganha destaque o modelo regulatório proposto pelo Reino Unido por meio da Online Safety Bill, que objetiva a proteção e a segurança dos cidadãos na internet contra as diferentes categorias de online harms.8
A ideia central desse marco regulatório funda-se na estatuição de uma série de deveres e obrigações a serem cumpridas pelas plataformas digitais (duty of care), fundamentados nos princípios da transparência, da confiança e da prestação de contas.
Dessa forma, as plataformas digitais estariam submetidas a uma espécie de responsabilidade condicionada ao atendimento de referidas obrigações, cabendo o controle sobre sua atuação a organismos independentes, como o Office of Communications – OFCOM – entidade reguladora do governo britânico.
Seguindo a mesma tendência do Reino Unido, foi aprovada pelo Parlamento Europeu o Digital Services Act – uma proposta regulatória da Comissão Europeia para a criação de um modelo único de serviços digitais dentro dos limites da União Europeia, com vistas à proteção dos usuários das plataformas digitais.
A ideia é muito semelhante à da Online Safety Bill, na medida em que o marco regulatório propõe uma série de obrigações a serem cumpridas pelas plataformas digitais, no contexto do qual "a transparência seria o elemento mais importante para atingir uma moderação de conteúdo eficiente".9
Conforme proposto pelo Digital Services Act, caberia a cada Estado-membro a designação de um Digital Services Coordinator, bem como a elaboração de relatórios de transparência e de boas práticas para modelos de auto e corregulação, a depender da natureza e do tamanho do provedor.
A regulação das plataformas digitais no Brasil
Seguindo as diretrizes da Section 230 do Communications Decency Act (CDA) do U.S Code (segundo as quais as companhias de tecnologia são, em regra, isentas de responsabilidade referentes ao conteúdo publicado por usuários), o Parlamento brasileiro editou a lei Federal 12.965/2014 (o Marco Civil da Internet) que também isenta de responsabilidade, em regra, os provedores de conexão à internet relativamente ao conteúdo gerado por terceiros.
A partir da entrada em vigor da referida legislação, grande controvérsia se estabeleceu em torno da (in)constitucionalidade do seu artigo 19, que condiciona e restringe a incidência da responsabilidade civil dos provedores de internet, websites e gestores de aplicativos de redes sociais, ao desatendimento de ordem judicial específica, que determine a exclusão do conteúdo ilícito e lesivo postado. Ou seja, a responsabilização se daria tão somente pelo controle da retirada da publicação, mas não pelo seu conteúdo.
Como não é difícil perceber, trata-se de alteração do regime jurídico até então vigente sobre o tema que vai na contramão da proteção das vítimas.
Os ônus econômicos e temporais impostos às pessoas lesadas por conteúdos postados nas redes sociais - decorrentes da necessária judicialização prevista pelo art. 19 da lei 12.965/2014 – são notoriamente incompatíveis com a concepção de tutela adequada dos direitos fundamentais (tais como a vida privada, a honra e a dignidade), sobretudo quando se recorda a necessidade de serem preservados preventivamente. O modelo atualmente previsto pelo referido dispositivo legal acarreta às vítimas não só maior tempo de exposição aos danos, como também o seu agravamento.
É interessante notar que a orientação jurisprudencial de nossos tribunais, construída anteriormente à edição do Marco Civil da Internet, revelava-se menos hostil às vítimas, na medida em que lhes permitia notificar direta e extrajudicialmente os provedores, instando-os a retirar as informações difamantes postadas por seus usuários.10
De forma diversa, o regime jurídico reconstruído pela redação conferida aos artigos 18 e 19 da lei 12.965/2014, sutil e silenciosamente, implicou uma total reconfiguração da natureza jurídica dos provedores, requalificando seu status.
Com efeito, na medida em que se condiciona a imputação de responsabilidade civil à desobediência à uma prévia ordem judicial, o legislador brasileiro simplesmente desonerou as empresas provedoras de qualquer obrigação de valorar o conteúdo veiculado na internet por seus usuários. Isso implica, na realidade, no reconhecimento legislativo de que os provedores de internet passaram a ser considerados meras neutral platforms.
Trata-se de uma profunda alteração do status jurídico direcionado às empresas de tecnologia que, para além dos já referidos efeitos nocivos à adequada proteção das vítimas, imuniza as operadoras, garantindo-lhes, na prática, um regime de plena irresponsabilidade civil sobre todo e qualquer conteúdo ilícito e lesivo postado por seus usuários – a menos que descumpram ordens judiciais para a supressão do conteúdo lesivo.
Por tudo isso - e apesar desse novo regime jurídico que os artigos 18 e 19 do Marco Civil da Internet concede às operadoras -, é preciso ponderar se o ordenamento jurídico nacional viabiliza outras soluções que, quando menos, compatibilizem e estabilizem os diversos interesses em jogo.
Nesse sentido, é preciso lembrar que as empresas de tecnologia não são proibidas de, diante de conteúdos reputados abusivos ou ofensivos inseridos em suas plataformas, excluí-los unilateralmente. Aliás, a se recordar a doutrina da eficácia horizontal dos direitos fundamentais nas relações privadas (já corroborada no Brasil por precedentes do Supremo Tribunal Federal), tratar-se-ia não de mera faculdade, mas de verdadeira obrigação imposta às empresas de tecnologia no intuito de garantir a incolumidade dos direitos humanos essenciais.11
O exercício desse poder-dever das empresas de tecnologia desafia ainda maiores discussões acerca dos limites da moderação a ser desenvolvida pelas plataformas, até mesmo em função das expressas condições estabelecidas nos contratos firmados com seus usuários.
De fato, nos contratos de adesão dos usuários às redes sociais, invariavelmente são reguladas as políticas de uso e de acesso aos serviços, assim como a previsão de limitação quanto aos tipos de conteúdo e comportamentos permitidos na plataforma.
Dessa forma, se há efetivamente um modelo de triagem prévia a respeito do conteúdo e alguma forma de ingerência do seu fluxo - pelos quais as plataformas podem selecionar o conteúdo postado por seus usuários -, parece evidente que se está a admitir o exercício de um poder moderador cujos critérios de funcionamento, apesar de ainda bastante obscuros, escancaram não apenas a possibilidade técnica do exercício do controle de conteúdos como, também, a viabilidade de sua responsabilização.12
Para MARTINS, "a partir do momento em que o provedor intervém na comunicação, dando-lhe origem, escolhendo ou modificando o conteúdo ou selecionando o destinatário, passa a ser considerado responsável, pois a inserção de conteúdos ofensivos constitui fortuito interno, ou seja, risco conhecido e inerente ao seu empreendimento. Conclui-se, dessa forma, ser objetiva, com fundamento no artigo 14 do Código de Defesa do Consumidor, a responsabilidade pelo fato do serviço do detentor do site."13
Apesar disso, a interpretação literal dos artigos 18 e 19 do Marco Civil da Internet aparentemente autoriza as empresas de tecnologia a se furtarem dos ônus decorrentes do controle dos conteúdos inseridos por seus usuários, sob a alegação de que não deteriam competência para efetuar qualquer tipo de juízo de valor sobre os mesmos - atribuição essa que competiria prévia e prioritariamente ao Poder Judiciário.
Por tal motivo, é de enorme relevância a definição, por parte do Supremo Tribunal Federal, do regime de responsabilidade civil dos provedores de internet, no âmbito do julgamento de dois temas de repercussão geral já fixados. A respeito desses temas, foi designada audiência pública objetivando aprofundar as discussões para o enfrentamento da (in)constitucionalidade do artigo 19 do Marco Civil da Internet, através do sopesamento dos direitos fundamentais envolvidos.14
Trata-se de ponderar, antes de tudo, a respeito de como direitos e garantias fundamentais, individuais e sociais, podem e devem ser adequadamente protegidos não apenas pelo Estado, mas também pelas próprias empresas de tecnologia, contra o uso indiscriminado das redes sociais como instrumento de vilipêndio de valores inatos à humanidade, como a saúde, a vida, a democracia e a verdade.
*Thais Pascoaloto Venturi é doutora pela UFPR (2012), com estágio de doutoramento - pesquisadora Capes - na Faculdade de Direito da Universidade de Lisboa/Portugal (2009). Mestre pela UFPR (2006). Professora de Direito Civil da Universidade Tuiuti do Paraná - UTP e de cursos de pós-graduação. Associada fundadora do Instituto Brasileiro de Responsabilidade Civil - IBERC.
__________
1 Redes sociais: plataforms ou publishers – Parte I. Disponível aqui. Acesso em 14 de março de 2022.
2 Destacam-se dois conhecidos precedentes: Cubby, Inc. v. CompuServe, Inc. U.S. District Court for the Southern District of New York - 776 F. Supp. 135 (S.D.N.Y. 1991) October 29, 1991. Disponível aqui. Acesso em 17 de março de 2022. Vide, ainda, Stratton Oakmont, Inc. v. Prodigy Services Co. Supreme Court, Nassau County, New York, Trial IAS Part 34. May 24, 1995. Disponível aqui. Acesso em 17 de março de 2022.
3 47 U.S.C. § 230, (c)(1)
4 Atualmente existem 19 propostas legislativas para a alteração da Section 230: 1.Justice Against Malicious Algorithms Act of 2021 (H.R. 5596); 2.A bill to repeal Section 230 of the Communications Act of 1934 (S. 2972); 3.Federal Big Tech Tort Act (H.R. 5449); 4.The Accountability for Online Firearms Marketplaces Act of 2021 (S.2725); 5.Health Misinformation Act of 2021 (S. 2448); 6.Preserving Political Speech Online Act (S. 2338); 7.The Disincentivizing Internet Service Censorship of Online Users and Restrictions on Speech and Expression Act (DISCOURSE) (S.2228); 8.Protect Speech Act (H.R. 3827); 9. Safeguarding Against Fraud, Exploitation, Threats, Extremism and Consumer Harms (SAFE TECH) Act (H.R. 3421; companion bill to S.22); 10. 21st Century Foundation for the Right to Express and Engage in Speech Act (21st Century FREE Speech Act) S. 1384; 11.Protecting Americans From Dangerous Algorithms Act (H.R. 2154); 12. Stop Shielding Culpable Platforms Act (H.R. 2000); 13.Platform Accountability and Consumer Transparency (PACT) Act (S. 797); 14. Abandoning Online Censorship (AOC) Act (H.R. 874); 15. Safeguarding Against Fraud, Exploitation, Threats, Extremism, and Consumer Harms (SAFE TECH) Act; 16. See Something, Say Something Online Act of 2021 (S. 27); 17. Curbing Abuse and Saving Expression in Technology (CASE-IT) Act (H.R. 285); 18. Protecting Constitutional Rights From Online Platform Censorship Act (H.R. 83); 19. Earn it act.
5 O Comitê analisa casos emblemáticos e determina se as decisões do Facebook foram tomadas de acordo com os valores declarados na plataforma, destacam-se os seguintes casos: Caso de confinamento e Covid19 - 2021-008-FB-FBR - Disponível aqui; Caso de câncer de mama - 2020-004-IG-UA – Disponível aqui; Caso Ayahuasca - 2021-013-IG-UA – Disponível aqui. Acesso em 17 de março de 2022.
6 BOWERS, John, ZITTRAIN, Jonathan. Answering impossible questions: content governance in na age of disinformation. Harvard Kennedy School Misinformation Review, v.1, Issue 1, January, 2020.
7 KLONICK, Kate. The New Governors: The people, rules and processes governing online speech. Harvard Law Review. V. 131, pp. 1598-1670, 2018.
8 Disponível aqui. Acesso em 15 de março de 2022.
9 Disponível aqui. Acesso em 16 de março de 2022.
10 REsp 1175675/RS, Rel. Ministro Luis Felipe Salomão, Quarta Turma, julgado em 09/08/2011.
11 A respeito do tema, vide nossa coluna A state action doctrine norte-americana e a eficácia horizontal dos direitos fundamentais nas relações privadas no Brasil, publicada em outubro de 2020. Disponível aqui. Acesso em 17 de março de 2022.
12 Nesse contexto, afirmou o Ministro Luiz Felipe Salomão que "a alegada incapacidade técnica de varredura das mensagens incontroversamente difamantes é algo de venire contra factum proprium, inoponível em favor do provedor de internet (REsp n. 1.306.157/ SP, Rel. Ministro Luiz Felipe Salomão, Quarta Turma, julgado em 17/12/2013, Dje 24/03/2014).
13 MARTINS, Guilherme Magalhães. Responsabilidade civil por acidente de consumo na internet. 3 ed., revista, atualizada e ampliada. São Paulo: Revista dos Tribunais, 2020, p. 434.
14 "Tema 987 – Discussão sobre a constitucionalidade do artigo 19 da lei 12.965/2014 que determina a necessidade de prévia e específica ordem judicial de exclusão de conteúdo para a responsabilização civil do provedor de internet, websites e gestores de aplicativos de redes sociais por danos decorrentes de atos ilícitos praticados por terceiros. (RE 1.037.396-SP, Ministro Relator Toffoli). E o Tema 533 - Dever de empresa hospedeira de sítio na internet fiscalizar o conteúdo publicado e de retirá-lo do ar quando considerado ofensivo, sem intervenção do Judiciário. (RE 1.057.258-MG, Relator Ministro Luiz Fux)."