Novos rumos da responsabilidade civil das plataformas digitais? Com a palavra, a Suprema Corte Norte Americana e o Supremo Tribunal Federal
segunda-feira, 27 de março de 2023
Atualizado às 07:25
A (ir)responsabilidade das empresas de tecnologia nos EUA segundo a Section 230 do U.S Code
Em coluna anterior, suscitamos a discussão em torno da possibilidade de imputação de responsabilidade civil às empresas de tecnologia pelo conteúdo e pela origem das postagens dos usuários das redes sociais, a partir da investigação a respeito da natureza jurídica dos serviços por elas prestados.1
As empresas de tecnologia nos EUA, em um primeiro momento, caracterizam-se como Platforms - instituições neutras que tão somente permitem a comunicação e a distribuição de informações entre seus usuários, não tendo qualquer ingerência sobre o seu conteúdo ou procedência.
Tal entendimento foi consolidado pela Section 230, incluída no Communications Decency Act (CDA) do U.S Code, por via da qual as companhias foram isentadas de responsabilidade no tocante ao conteúdo publicado por usuários: 47 U.S.C. § 230, (c)(1): "No provider or user of an interactive computer service shall be treated as the publisher or speaker of any information provided by another information content provider".2
A referida inovação legislativa - que definiu as empresas provedoras de "serviços interativos de computador" como neutral platforms -, entrou em vigor no ano de 1996, em uma época na qual o acesso à internet era viabilizado pela contratação (assinaturas) de empresas. A rede mundial de computadores acabava de ser inventada.
Nessa conjuntura ainda rudimentar da internet, a regulação protetiva das plataformas online teve sua razão de ser, na medida em que ainda não se tinha ideia a respeito da projeção que a comunicação online viria a tomar. Sequer existiam, então, as famosas redes sociais (Facebook e o Twitter, dentre outras).
Nas décadas que se seguiram, a tecnologia mudou drasticamente as experiências on-line e a própria forma de interação entre as pessoas. Apesar dessa nova realidade, o Congresso norte-americano não foi capaz de enfrentar e regular os problemas emergentes desse admirável mundo novo.
É justamente nesse cenário que a Suprema Corte norte-americana está sendo instada a se manifestar, quiçá para rever o entendimento até então consolidado pela literalidade da Section 230, acerca da responsabilidade dos provedores.
A partir de duas ações apresentadas por familiares de vítimas de ataques terroristas, nas quais sustentam que as empresas de tecnologia (Google e Twitter) são responsáveis por alimentar a violência com seus algoritmos, caberá à Suprema Corte interpretar de que forma a Section 230 deve ser aplicada a partir das práticas das mídias sociais do século XXI.
O caso Gonzalez vs. Google
Nohemi Gonzalez, uma cidadã americana de 23 anos que estudava em Paris, em 2015, foi morta em ataques coordenados pelo Estado Islâmico na capital francesa e arredores. No dia seguinte, a organização terrorista estrangeira ISIS reivindicou a responsabilidade pelo ataque ao emitir uma declaração por escrito e divulgar um vídeo no YouTube.3
O pai de Gonzalez ajuizou uma ação contra as empresas Google, Twitter e Facebook, alegando, dentre outros argumentos, que o Google ajudou e incitou o terrorismo internacional ao permitir que o ISIS usasse sua plataforma - especificamente o YouTube - "para recrutar membros, planejar ataques terroristas, emitir ameaças terroristas, incutir medo e intimidar as populações civis".
Na demanda, alegou-se que, como o Google usa algoritmos de computador que sugerem conteúdo aos usuários com base em seu histórico de visualização, ele teria auxiliado o ISIS na divulgação de sua mensagem. Segundo pretende a ação, todas as três plataformas também seriam responsáveis ??por ajudar e ou incitar o terrorismo internacional ao não tomar medidas significativas ou agressivas para impedir que terroristas usassem seus serviços, mesmo que não tenham desempenhado um papel ativo no ato específico de terrorismo internacional em questão.
Segundo se sustenta na ação, ainda, "os réus teriam recomendado que os usuários assistissem a vídeos inflamatórios criados pelo Estado Islâmico, vídeos que desempenharam um papel fundamental no recrutamento de combatentes para se juntar ao EI em sua subjugação de uma grande área do Oriente Médio e cometer atos terroristas em seus países de origem".4
A pretensão condenatória foi rejeitada pelas instâncias inferiores da justiça norte-americana. O Tribunal Distrital concedeu a moção do Google para rejeitar a ação com base na Seção 230. Seguindo o mesmo entendimento, o Tribunal de Apelações do Nono Circuito improveu o recurso, concluindo que a Seção 230 protegia o YouTube de responsabilidade por vídeos produzidos por terceiros e que o compartilhamento de conteúdos era simplesmente o curso normal dos negócios e não qualquer tipo de apoio a um grupo ou ideologia específica.5
O caso Gonzalez v Google conseguiu chegar à apreciação da Suprema Corte dos EUA, tendo sua primeira audiência em 21 de fevereiro de 2023, reiterando a família a necessidade de revisão da seção 230 da Communications Decency - que isenta de responsabilização os serviços digitais pelos conteúdos postados pelos usuários.
De acordo com o sustentado pelo writ recebido pela Suprema Corte, o Youtube não pode ser protegido pela seção 230 pois é responsável pela recomendação de conteúdos de forma algorítmica, colocando em discussão o documento legislativo que moldou a construção da Internet como conhecemos hoje.6
A juíza da Suprema Corte, Elena Kagan, já antecipou que referido estatuto foi formulado num contexto bastante diferente do atual, sem a presença dos algoritmos: "Todo mundo está tentando o seu melhor para descobrir como esse estatuto pré-algoritmo se aplica no mundo pós-algoritmo".
Mesmo assim, alguns integrantes do Tribunal Supremo levantaram a preocupação de um possível efeito multiplicador de demandas indenizatórias repetitivas, caso a decisão seja favorável aos González. A mesma preocupação também foi levantada pelos representantes do Google, para quem responsabilizar as plataformas ameaçaria severamente a Internet atual.
No entanto, de acordo com a colunista do Times, Julia Angwin, "fazer uma distinção entre discurso e conduta parece um passo razoável para forçar as grandes empresas de tecnologia a fazer algo quando os algoritmos podem violar ilegalmente direitos civis, segurança de produtos, antiterrorismo e outras leis importantes. Caso contrário, sem responsabilidade, o preço de não fazer nada sempre superará o custo de fazer algo."7
O caso Twitter vs. Taamneh
Em outra ação recentemente remetida à Suprema Corte dos EUA (caso Twitter v. Taamneh), familiares do jordaniano Nawras Alassaf, vítima de um ataque terrorista do ISIS em Istambul no ano de 2017, imputam a responsabilidade das empresas de mídia social pelo aumento do extremismo e pelos danos deles derivados.
No processo, a família da vítima sustenta que as plataformas de internet devem ser responsabilizadas por "prestarem assistência e serem cúmplices" com o terrorismo internacional, e por falharem em remover vídeos ligados ao Estado Islâmico. Alega-se que, ao permitir a distribuição de material do ISIS sem supervisão editorial, empresas como Twitter, Google e Facebook (atual Meta Platforms) ajudaram e estimularam a atividade do ISIS.
Curiosamente, a discussão a respeito da aplicação ou da interpretação da Seção 230 não foi inicialmente tratado nos recursos encaminhados por Taamneh perante as instâncias jurisdicionais iniciais.
Embora tenha sido levantado pelas empresas demandadas, o Tribunal Distrital não chegou a uma conclusão a respeito da aplicabilidade da Seção 230.
O Tribunal de Apelações, por sua vez, ao reverter a rejeição do caso pelo Tribunal Distrital, concluiu que as empresas de tecnologia (Twitter, Google e Facebook) poderiam ser processadas por terem deixado de identificar e remover o vídeo do ISIS, desempenhando, assim, um papel de assistência ao ataque terrorista.8
Posicionamento da Suprema Corte dos EUA
Na análise (que se aproxima) dos referidos casos, espera-se que a Suprema Corte norte-americana finalmente defina, a partir da interpretação da Seção 230, a responsabilidade das plataformas digitais (tais como o YouTube, o Facebook e o Twitter) pelo direcionamento que seus algoritmos induzem a seus usuários a partir de certas informações consideradas sensíveis.
Em fevereiro do corrente ano, o Tribunal ouviu as alegações orais em casos envolvendo práticas de moderação de conteúdo de plataformas de mídia social. A Suprema Corte também sinalizou que poderia abordar posteriormente as questões da aplicação da Primeira Emenda envolvidas em decisões conflitantes do Tribunal de Apelações, em relação às leis de moderação de conteúdo aprovadas pelos Estados do Texas e da Flórida.
É importante destacar que apenas aproximadamente dois por cento (2%) dos recursos apresentados à Suprema Corte norte-americana (writs of certiorari) são admitidos, e "o fato de os casos de fevereiro terem superado esse obstáculo sugere que pelo menos alguns membros da Corte podem ter algo a dizer sobre uma questão que se tornou um elemento fixo nas guerras culturais (e o gatilho para as leis do Texas e da Flórida)."9
A Suprema Corte já havia previamente se negado a se pronunciar em várias outras ações judiciais que contestavam a Seção 230. Aliás, ao longo dos anos, importantes precedentes firmaram o entendimento da Suprema Corte no sentido de priorizar a liberdade de expressão, mesmo diante de casos com discursos extremistas.10
Nesse sentido, a decisão da Suprema Corte de manter suspensos outros casos similares de competência estadual, enquanto aprecia os casos que admitiu analisar a respeito do tema, parece sugerir uma estratégia judicial.
A imunidade que a Seção 230 vem concedendo às empresas de tecnologia já ultrapassou todos os limites do âmbito da liberdade de expressão. As escolhas econômicas por parte dos denominados GAFAM (Google (Alphabet), Apple, Facebook (Meta), Amazon e Microsoft) que se consubstanciam no já conhecido "soft power", passaram a dominar praticamente toda a infraestrutura de comunicação, constituindo fonte de informação primária para bilhões de usuários que passam a desempenhar um papel de inegável interesse público.
Movimentos de regulação das plataformas digitais - "Internet for Trust" (A global dialogue to guide regulation worldwide) e a expectativa do julgamento do STF sobre o artigo 19 do Marco Civil da Internet no Brasil
Já tivemos a oportunidade de também abordar em coluna anterior o Digital Services Act que foi aprovado pelo Parlamento Europeu e entrou em vigor em 2022 - uma proposta regulatória da Comissão Europeia de criação de um modelo único de serviços digitais dentro dos limites da União Europeia, com vistas à proteção dos usuários das plataformas digitais.11
A ideia foi muito semelhante à da Online Safety Bill, desenvolvida pioneiramente pelo sistema inglês, na medida em que o marco regulatório propõe uma série de obrigações a serem cumpridas pelas plataformas digitais, no contexto do qual "a transparência seria o elemento mais importante para atingir uma moderação de conteúdo eficiente.
Seguindo as referidas diretrizes europeias, recentemente foi realizada na sede da Unesco em Paris a conferência "Internet for Trust" (i4T - A global dialogue to guide regulation worldwide - "Internet Confiável: rumo à regulamentação das plataformas digitais para que a informação seja um bem público"), cujo tema principal foi o estabelecimento de princípios (guidelines globais) de regulação das plataformas digitais sob uma perspectiva multidisciplinar.
Participaram da conferência representantes dos Estados, do setor privado, estudiosos do tema e da sociedade civil. A discussão na conferência girou em torno de temas envolvendo o combate à desinformação, às fake news e à multiplicidade de teorias da conspiração que colocam em xeque as instituições democráticas.
Como resultado da conferência em torno da responsabilidade das plataformas digitais, foram fixadas algumas teses: "1) Respeito aos direitos humanos durante a moderação do conteúdo. Para tanto, contam com políticas e práticas de moderação de conteúdo condizentes com os padrões de direitos humanos, implementadas por meio de algoritmos e meios humanos, com proteção e suporte adequados aos moderadores humanos; 2) As plataformas devem ser transparentes, abertas sobre como operam, com políticas compreensíveis e auditáveis. Isso inclui transparência sobre as ferramentas, sistemas e processos usados ??para moderar e selecionar conteúdo em suas plataformas, inclusive quando se trata de processos automatizados; 3) As plataformas devem permitir que os usuários entendam e tomem decisões informadas sobre os serviços digitais que utilizam, e ainda os ajudem a avaliar a informação contida na plataforma. As plataformas são responsáveis ??perante as partes interessadas, usuários, o público e o sistema regulatório pela implementação de seus termos de serviço e políticas de conteúdo; 4) As plataformas realizam o processo de due diligence no campo dos direitos humanos, avaliando os riscos e o impacto sobre os direitos humanos de suas políticas e práticas."12
Como se percebe, o objetivo das referidas diretrizes é implementar processos regulatórios que compatibilizem a liberdade de expressão sem colocar em risco a democracia, as instituições e, sobretudo, a proteção aos direitos humanos.
Movimento semelhante, no sentido da regulação das plataformas digitais, vem ocorrendo no sistema de justiça brasileiro. No início do mês de março de 2023, os Ministros Dias Toffoli e Luiz Fux (relatores dos Recursos Extraordinários n.º 1.037.396 e 1.057.258, do Supremo Tribunal Federal), designaram audiência pública objetivando aprofundar as discussões para o enfrentamento da (in)constitucionalidade do artigo 19 do Marco Civil da Internet, através do sopesamento dos direitos fundamentais envolvidos.13
A audiência tratará de dois temas de repercussão geral já fixados: (i) a constitucionalidade do art. 19 do Marco Civil da Internet (MCI); e (ii) o dever das plataformas de fiscalizar o conteúdo publicado e retirá-lo do ar quando considerado ofensivo.14
Como visto, há um movimento mundial com vistas a proteção de direitos e garantias fundamentais que devem ser adequadamente protegidos não apenas pelos Estados, mas também pelas próprias empresas de tecnologia, contra o uso indiscriminado das redes sociais como instrumento de vilipêndio de valores inatos à humanidade, como a saúde, a vida, a democracia e a verdade.
__________
1 VENTURI, Thaís Goveia Pascoaloto. Redes Sociais: Platforms ou Publishers? (Parte I). Disponível aqui. Acesso em março de 2023.
2 Tradução livre: United States Code, Capítulo 47, Seção 230, item "c", subitem 1: "Nenhum provedor ou usuário de um serviço de computador interativo deve ser tratado como editor ou locutor de qualquer informação fornecida por outro provedor de conteúdo de informação".
3 JUSTIA US LAW. Gonzalez v. Google, LLC, No. 18-16700 (9th Cir. 2021). Disponível aqui. Acesso em março de 2023.
4 JUSTIA U.S. SUPREME COURT. Gonzalez v. Google, LLC. Disponível aqui. Acesso em março de 2023.
5 JUSTIA US LAW. Gonzalez v. Google, LLC, No. 18-16700 (9th Cir. 2021). Disponível aqui. Acesso em março de 2023.
6 JUSTIA U.S. SUPREME COURT. Gonzalez v. Google, LLC. Disponível aqui. Acesso em março de 2023.
7 ANGWIN, Julia. It's Time to Tear Up Big Tech's Get-Out-of-Jail-Free Card. The New York Times. Disponível aqui. Acesso em fevereiro de 2023.
8 JUSTIA U.S. SUPREME COURT. Twitter, Inc. v. Taamneh. Disponível aqui. Acesso em março de 2023.
9 WHEELER, Tom. The Supreme Court takes up Section 230. Disponível aqui. Acesso em março de 2023.
10 Nesse sentido, consultar: Brandenburg v. Ohio (1969), R.A.V. v. City of St. Paul, 505 U.S. 377 (1992), Texas v. Johnson, 491 U.S. 397 (1989), United States v. Eichman, 496 U.S. 310 (1990) e Virginia v. Black, 538 U.S. 343 (2003).
11 VENTURI, Thaís G. Pascoaloto. Responsabilidade civil das plataformas digitais: em busca de marcos regulatórios. Disponível aqui. Acesso em março de 2023.
12 Internet for Trust - Towards Guidelines for Regulating Digital Platforms for Information as a Public Good, Paris, 2023. Disponível aqui. Acesso em março de 2023.
13 TEFFÉ, Chiara Spadaccini de. Questões acerca do sistema de responsabilidade civil do Marco Civil da Internet: Análise do artigo 19. Disponível aqui. Acesso em março de 2023.
14 "Tema 987 - Discussão sobre a constitucionalidade do artigo 19 da Lei 12.965/2014 que determina a necessidade de prévia e específica ordem judicial de exclusão de conteúdo para a responsabilização civil do provedor de internet, websites e gestores de aplicativos de redes sociais por danos decorrentes de atos ilícitos praticados por terceiros. (RE 1.037.396-SP, Ministro Relator Toffoli). E o Tema 533 - Dever de empresa hospedeira de sítio na internet fiscalizar o conteúdo publicado e de retirá-lo do ar quando considerado ofensivo, sem intervenção do Judiciário. (RE 1.057.258-MG, Relator Ministro Luiz Fux)."