Os recentes acontecimentos envolvendo a suspensão e subsequente banimento das contas do ex-presidente norte-americano Donald Trump das redes sociais Facebook e Twitter, reacenderam o debate a respeito da natureza dos serviços por elas prestados. Essa discussão possui enormes repercussões jurídicas, em especial, no âmbito da responsabilidade civil.
A grande questão que surge relaciona-se com a possibilidade de imputação de responsabilidade civil às empresas de tecnologia pelo conteúdo e pela origem das postagens dos usuários das redes sociais por elas viabilizadas. O tema é altamente polêmico e encerra uma multiplicidade de fatores dos quais depende o tratamento jurídico a ser aplicado.
Nessa primeira parte do texto que reservamos à coluna, pontuaremos alguns desses fatores segundo a ótica do sistema de justiça norte-americano. Na segunda parte, analisaremos o tema sob o ponto de vista do sistema de justiça brasileiro.
O debate aberto nos EUA iniciou-se pela caracterização das empresas de tecnologia, em um primeiro momento, como Platforms – instituições neutras que tão somente permitem a comunicação e a distribuição de informações entre seus usuários, não tendo qualquer ingerência sobre o seu conteúdo ou procedência.
Gradativamente, contudo, na exata medida da crescente repercussão da publicação de conteúdos considerados abusivos, e do alcance de seus efeitos nocivos que instauraram um panorama de caos, tanto o Parlamento quanto o Poder Judiciário vêm colocando em xeque o entendimento até então consolidado. Essa alteração está se dando a partir da caracterização das redes sociais como verdadeiras "Publishers" – instituições que não apenas veiculam, mas editam e controlam conteúdos e fontes das informações postadas pelos usuários.
Para demonstrar essa tendência, façamos uma breve retrospectiva da orientação jurisprudencial das Cortes norte-americanas a respeito da natureza jurídica das empresas de tecnologia que hospedam redes sociais.
A preocupação com a publicação de conteúdos abusivos em ambiente online foi discutida originalmente no caso Cubby Inc. V CompuServe, Inc., em 1991 (Tribunal do Distrito Sul de Nova Iorque). Nesse caso, estabeleceu-se importante precedente ao se aplicar, de forma bastante restritiva, a Lei de Difamação aos provedores de serviço de internet.
Até então, referida legislação era aplicada a casos de cópias impressas de trabalhos escritos. O caso em questão versou sobre a alegação de difamação feita pela empresa Cubby contra a CompuServe, um provedor de serviços de Internet que hospedava conteúdo supostamente difamatório em um de seus fóruns. O Tribunal Nova-Iorquino considerou que, embora a CompuServe efetivamente hospedasse conteúdo difamatório, ela seria meramente uma distribuidora do conteúdo, não se caracterizando como editora. Assim, como simples distribuidora, a CompuServe só poderia ser responsabilizada por difamação se soubesse, ou tivesse razão para saber, da natureza difamatória do conteúdo distribuído.1
Outro precedente que merece destaque envolveu o caso Stratton Oakmont, Inc. v Prodigy Services Co., no ano de 1995 (Suprema Corte do Estado de Nova York). Nesse julgamento, considerou-se que os provedores de serviços online poderiam ser responsabilizados pelas postagens de seus usuários, desde que exercessem efetivo controle editorial sobre as mesmas.
A Stratton Oakmont, uma empresa de investimento de valores mobiliários, acusou de difamação a Prodigy Services CO. e um usuário anônimo do fórum Money Talk (hospedado pela Prodigy), por um post que imputava à Stratton o cometimento de atos criminosos e fraudulentos durante a oferta pública inicial de ações da empresa Solomon-Page Ltd.
Em que pese a Prodigy ter utilizado em sua linha de defesa a decisão do caso Cubby Inc. V CompuServe, Inc. de1991, a Suprema Corte do Estado de Nova York firmou o entendimento de que a Prodigy era responsável pela veiculação da difamação, na medida em que exercia controle editorial sobre as postagens do Money Talk de três formas: 1) postando diretrizes de conteúdo para os usuários; 2) aplicando essas diretrizes como "líder do Conselho" e 3) utilizando um software de triagem projetado para remover linguagem ofensiva.2
Como se percebe, a disparidade de entendimento entre as Cortes nos dois casos resultou da diferença na interpretação a respeito da natureza jurídica da prestação do serviço dos provedores online, ora atuando como platforms (caso de 1991), ora atuando como publishers (caso de 1995).
No ano de 1996, uma importante inovação legislativa buscou definir as empresas provedoras de "serviços interativos de computador" como neutral platforms. Tratou-se da Section 230, incluída no Communications Decency Act (CDA) do U.S Code, por via da qual as companhias foram isentadas de responsabilidade no tocante ao conteúdo publicado por usuários: 47 U.S.C. § 230, (c)(1): "No provider or user of an interactive computer service shall be treated as the publisher or speaker of any information provided by another information content provider".3
Nada obstante a caracterização legislativa das empresas de tecnologia como platforms – meras hospedeiras do material inserido pelos usuários -, foi-lhes assegurada autonomia para moderar amplamente o conteúdo das postagens. Por tal motivo, para a utilização dos serviços das plataformas online, os usuários devem concordar com os “termos de serviço, política de privacidade e regras”. A partir do “acordo de usuário do serviço” criam-se direitos e obrigações para provedores e usuários.
Até os dias atuais, nos "termos de uso, serviços e políticas de conteúdo" divulgados por empresas de tecnologia como o Facebook e o Twitter, é comum a descrição de que elas atuariam como neutral platforms, sendo os seus usuários cientificados acerca da sua exclusiva responsabilidade sobre os conteúdos postados – sobretudo por se tratarem de mensagens pelos mesmos elaboradas, e que não representam a opinião das operadoras.
Contudo, os provedores se reservam o direito de prever limitações quanto ao conteúdo e comportamentos permitidos na plataforma, sob pena de suspensão ou a cessação da conta, residindo justamente nessa espécie de poder moderador uma das maiores controvérsias a respeito da natureza dos serviços prestados pelas empresas.
O paradoxo é evidente quando se imagina uma plataforma pretensamente neutra, mas que se confere o direito de analisar o conteúdo nela inserido para fins de suprimi-lo, ou até mesmo de suspender ou banir o usuário responsável pela postagem. "Se o conceito de plataforma soa confuso, tal confusão decorre sobretudo do poder da metáfora".4
Como se percebe, a autoidentificação dos provedores de redes sociais como plataformas é estratégica, como aponta Tarleton Gillespie, professor assistente da Cornell University e pesquisador na área de Comunicações da Microsoft: "No contexto dessas demandas financeiras, culturais e regulatórias, essas empresas estão trabalhando não apenas politicamente, mas também discursivamente para enquadrar seus serviços e tecnologias. Elas fazem isso estrategicamente, para se posicionar, para buscar lucros atuais e futuros, para encontrar um ponto ideal regulatório entre as proteções legislativas que as beneficiam e as obrigações que não as beneficiam, bem como para estabelecer um imaginário cultural dentro do qual seus serviços façam sentido".5
Por tais razões, ganha força no debate a respeito da natureza jurídica dos provedores de redes sociais o conceito de publisher. Enquanto editoras, as empresas passam a ser responsáveis pelo conteúdo publicado em suas páginas virtuais, muitas vezes controlado por um trabalho de editoração que envolve a verificação da credibilidade das fontes e a checagem dos fatos, dentre outras prerrogativas.6
A aplicação da Section 230 do U.S.Code vem gerando inúmeros debates, já a partir do contexto em que foi criada. Não existia, à época (1996), nenhuma das famosas redes sociais tais como o Facebook e o Twitter, dentre outras. A intenção legislativa foi a de encorajar as empresas de tecnologia a, pelo menos, tentar moderar o conteúdo de seus sites, isentando-as, todavia, de qualquer responsabilidade civil pelo que os usuários postavam online.7
Vale dizer, a Section 230 originalmente serviu como escudo de responsabilidade para Provedores de Serviços de Internet (ISPs), em uma época em que o acesso à internet era viabilizado pela contratação (assinaturas) de empresas como a AOL e a CompuServe. A rede mundial de computadores acabava de ser inventada. Nessa conjuntura ainda rudimentar da internet, a regulação protetiva das plataformas online teve sua razão de ser, na medida em que ainda não se tinha ideia a respeito da projeção que a comunicação online viria a tomar. Nesse ambiente, o exercício do poder moderador a respeito do conteúdo postado pelos usuários das operadoras era visto como eventual e excepcional.
Todavia, na medida da globalização e da facilitação das comunicações online, bem como do surgimento do fenômeno revolucionário das redes sociais, tanto a natureza jurídica dos serviços prestados pelas operadoras de internet quanto a necessidade e os limites do controle que elas podem ou devem exercer sobre o conteúdo das postagens de seus usuários, tornam-se temas hipercomplexos.
Quando o Facebook e o Twitter passaram a triar as postagens do ex- presidente Donald Trump, mediante checagem dos fatos e da origem das informações inseridas, as empresas foram acusadas de prática de censura, tendo sido articuladas algumas tentativas infrutíferas de revogação da legislação antes referida.8
Nesse sentido, Donald Trump chegou a editar uma Ordem Executiva (n.º 13925, publicada em junho de 2020), estabelecendo algumas diretrizes para a mudança da Section 230, com vistas ao combate e à prevenção da censura nas redes sociais. Segundo referida Ordem Executiva, "Twitter, Facebook, Instagram, and Youtube wield immense, if not unprecedented, power to shape the interpretation of public events; to censor, delete, or disappear information: and to control what people see or do not see".9
No mesmo contexto, ainda que por razões diversas, analisando a necessidade de mudança da Section 230, o Partido Democrata defende atualmente a necessidade de uma moderação mais efetiva por parte dos provedores online, sobretudo quando se trata de conteúdo prejudicial.
Em entrevista recente, o presidente norte-americano Joe Biden manifestou-se no sentido de que a Section 230 deveria ser revogada em razão de a desinformação online ocorrer de forma desenfreada. Ao se referir especificamente ao Facebook, concluiu: "There is no editorial impact at all on Facebook. None. None whatsoever. It's irresponsible. It’s totally irresponsible".10
Como se percebe, a discussão sobre a atual aplicação da Section 230 vem despertando o interesse tanto de Democratas como de Republicanos, havendo aparente consenso de que não é mais possível tolerar no sistema de justiça dos EUA uma completa ausência de responsabilidade por parte das Big Techs por quaisquer conteúdos postados nas redes sociais que não apenas hospedam, mas também passam a controlar.
A necessidade de responsabilização das plataformas de redes sociais pelo conteúdo que veiculam foi inclusive aventada por Mark Zuckerberg, ao afirmar que o debate acerca da Section 230 mostra que as pessoas estão insatisfeitas: "People want to know that companies are taking responsability for combating harmful contente – especially ilegal activity – on their platforms".11
A grande questão atualmente posta, assim, diz respeito aos rumos que devem ser observados para uma nova regulação do assunto, sobretudo no que concerne aos tênues e obscuros limites entre a moderação dos conteúdos postados nas redes sociais pelas próprias empresas provedoras e a censura.
Por um lado, a possibilidade de as redes sociais controlarem os conteúdos postados pelos seus usuários aparentemente não encontra obstáculo na garantia constitucional de liberdade de expressão. É que a garantia do free speech - prevista na Primeira Emenda à Constituição e basilar à democracia americana -, não teria incidência imediata e direta nas relações entre particulares. Pela doutrina da state action – amplamente respaldada pela jurisprudência da Suprema Corte os direitos e garantias fundamentais previstos constitucionalmente aplicam-se, como regra, apenas no âmbito das relações envolvendo o Poder Público, não se estendendo às relações entre os particulares.12
Por outro lado, ao se perceber o papel que as redes sociais passaram a desempenhar, em contexto mundial, parece claro que não se trata tão somente de uma regulação de relações privadas envolvendo provedores e usuários das redes sociais.
Na medida em que as redes sociais passam a constituir fonte de informação primária para bilhões de usuários, e são utilizadas como instrumento preponderante (senão único) de divulgação de informações oficiais de governos, há muito mais em jogo do que lesões à honra e à dignidade individual por injúrias e difamações postadas abusivamente na internet.
Trata-se de ponderar, antes de tudo, a respeito de como direitos e garantias fundamentais, individuais e sociais, podem e devem ser protegidos contra o uso indiscriminado das redes sociais como instrumento de vilipêndio de valores inatos à humanidade, como a saúde, a vida, a democracia e a verdade.
Nesse sentido, parece evidente que o “poder moderador”, há muito atribuído nos Estados Unidos da América às operadoras de internet, não apenas se revela insuficiente, como altamente questionável, na medida em que referidas companhias passaram a dominar praticamente toda a infraestrutura de comunicação, desempenhando um papel de inegável interesse público.13
A questão fundamental que se coloca diz respeito aos enormes perigos representados pelo controle privado do conteúdo das informações e das comunicações online, por parte de poucos e empoderados grupos corporativos, que passam, assim, a praticamente substituir o Estado na regulação da comunicação entre as pessoas.
*Thaís G. Pascoaloto Venturi tem estágio de pós-doutoramento na Fordham University - New York (2015). Doutora pela UFPR (2012), com estágio de doutoramento - pesquisadora Capes - na Faculdade de Direito da Universidade de Lisboa/Portugal (2009). Mestre pela UFPR (2006). Professora de Direito Civil da Universidade Tuiuti do Paraná - UTP e de cursos de pós-graduação. Associada fundadora do Instituto Brasileiro de Responsabilidade Civil - IBERC. Mediadora extrajudicial certificada pela Universidade da Califórnia - Berkeley. Mediadora judicial certificada pelo CNJ. Advogada e sócia fundadora do escritório Pascoaloto Venturi Advocacia.
__________
1 Cubby, Inc. v. CompuServe, Inc. U.S. District Court for the Southern District of New York - 776 F. Supp. 135 (S.D.N.Y. 1991) October 29, 1991. Disponível aqui. Acesso em 22 de janeiro de 2021.
2 Stratton Oakmont, Inc. v. Prodigy Services Co. Supreme Court, Nassau County, New York, Trial IAS Part 34. May 24, 1995. Disponível aqui. Acesso em 22 de janeiro de 2021.
3 Tradução livre: United States Code, Capítulo 47, Seção 230, item "c", subitem 1: "Nenhum provedor ou usuário de um serviço de computador interativo deve ser tratado como editor ou locutor de qualquer informação fornecida por outro provedor de conteúdo de informação".
4 MADRIGAL, Alexis C. "The 'Platform' Excuse is Dying". The Atlantic (online). Publicado em jun. 2019. Disponível aqui. Acesso em 26 janeiro de 2021.
5 GILLESPIE, Tarleton. "The Politics of 'Platforms'". New Media & Society. Vol. 12, n. 3 (2010). Disponível aqui. Acesso em 26 janeiro de 2021.
6 Como explicam RABAÇA, Carlos Alberto e BARBOSA, Gustavo Guimarães (Dicionário de comunicação. Rio de janeiro, Editora Elsevier, 2ª ed. 2002), os diversos modelos de mídias envolvem o trabalho de criadores de conteúdo, tais como jornalistas, escritores, colunistas e especialistas. Todavia, dentro deste mesmo mercado existem os chamados publishers, segundo a nomenclatura do jornalismo anglo-saxão e norte-americano. No Brasil, o publisher é conhecido pelo trabalho de editoração. Entender as diferentes funções de publishers e criadores de conteúdo é fundamental para saber, dentro das publicações de hoje, o que é inteiramente original e o que é trabalhado para publicação. Muitos veículos de comunicação são especialistas em conteúdo, enquanto outros preferem trabalhar melhor a informação para o público final. A escolha depende dos editores e dos chefes de cada um dos meios de comunicação, assim como das práticas de seus subordinados.
7 LERMAN, Rachel. Social media liability law is likely to be reviewed under Biden. Section 230 has become a favorite target of President Trump. Democrats have their own gripes about it. The Whashington Post, Jan. 18, 2021.
8 "Em dezembro, a demanda de Trump aos legisladores para revogar a Seção 230 veio como uma ameaça: ele vetaria um projeto de lei anual de gastos com defesa de US$741 bilhões se o Congresso se recusasse a revogá-la. A seção 230, que é um presente de proteção de responsabilidade dos Estados Unidos para Big Tech, é uma séria ameaça à nossa Segurança Nacional e Integridade Eleitoral, Trump tuitou tempos atrás (tradução livre)." LERMAN, Rachel. Social media liability law is likely to be reviewed under Biden. Section 230 has become a favorite target of President Trump. Democrats have their own gripes about it. The Whashington Post, Jan. 18, 2021.
9 Federal Register, Vol.85, N. 106, Tuesday, June 2, 2020. Presidential Documents. Executive Order 13925 – Preventing Online Censorship.
10 "Should be Revoked because of misinformation running rampant online, but has since steere clear of the topic". Joe Biden Says age is just a number. The New York Times. January – 2021.
11 LERMAN, Rachel. Social media liability law is likely to be reviewed under Biden. Section 230 has become a favorite target of President Trump. Democrats have their own gripes about it. The Whashington Post, Jan. 18, 2021.
12 Sobre o tema, vide nossa coluna anteriormente publicada aqui no Migalhas: "A state action doctrine norte-americana e a eficácia horizontal dos direitos fundamentais nas relações privadas no Brasil".
13 "It was a remarkable demonstration of private power over the public sphere and represents its own threat to democracy: top-down, private control of speech in the modern public square". TEACHOUT, Zephyr. We're better off without Trump on Twitter. And worse off with Twitter in charge. When companies dominate our communications infrastructure, their decisions are no longer "private". The Washington Post, jan. 14, 2021.