COLUNAS

  1. Home >
  2. Colunas >
  3. Migalhas de Responsabilidade Civil >
  4. STF e o julgamento do art. 19 do MCI: Como julgar equilibrando a liberdade de expressão e o combate à conteúdos ilegais?

STF e o julgamento do art. 19 do MCI: Como julgar equilibrando a liberdade de expressão e o combate à conteúdos ilegais?

quinta-feira, 14 de novembro de 2024

Atualizado em 13 de novembro de 2024 09:20

O STF iniciará, no dia 27 de novembro, o julgamento do recurso extraordinário 1.037.396 (repercussão geral tema: 987), que discute a (in)constitucionalidade do art. 19 do MCI - Marco Civil da Internet1. O julgamento traz em seu bojo a discussão essencial do futuro da liberdade de expressão no Brasil2.

A proposta é responder a questões fundamentais que possam orientar o STF a conduzir este julgamento, equilibrando a proteção da liberdade de expressão com o controle de conteúdos ilegais:

  1. Quais diretrizes os padrões internacionais de Direitos Humanos fornecem para estabelecer limitações à liberdade de expressão?
  2. Considerando essas diretrizes de Direitos Humanos, quais critérios claros e objetivos podem ser usados para restringir a liberdade de expressão no combate a conteúdos ilegais?
  3. Quais são as hipóteses de restrição de conteúdos ilegais que o STF deve definir no combate a conteúdos ilegais?
  • Quais diretrizes os padrões internacionais de Direitos Humanos fornecem para estabelecer limitações à liberdade de expressão?

Os padrões internacionais de direitos humanos definem aspectos fundamentais para a liberdade de opinião, que possui duas dimensões: uma interna, relacionada com o direito à vida privada e à liberdade de pensamento; e outra denominada externa, relativa à liberdade de expressão3.

A liberdade de opinião é absoluta, ampla e inerente aos seres humanos, já que protege as opiniões das pessoas. Envolve o direito de mudar de opinião, no momento, e pelo motivo que a pessoa eleger, de forma livre4.

Já a liberdade de expressão é mais abrangente e engloba, inclusive, a liberdade de procurar, receber e transmitir informações e ideias de todos os tipos, independentemente das fronteiras e através de qualquer meio de comunicação, offline ou online4. Por isso, o Estado tem o dever de se abster de interferir na vulneração deste direito humano e, ao mesmo tempo, também a obrigação de garantir que outros, incluindo empresas privadas, não interfiram nele.

A liberdade de expressão pode ser restringida em determinadas circunstâncias3. O seu exercício não é ilimitado, implicando em deveres e responsabilidades.

Tais deveres e responsabilidades são claramente delimitados por instrumentos internacionais, assim como estão sujeitos a critérios muito restritivos quanto à sua interpretação e à sua aplicação.

O art. 29 (2) da Declaração Universal dos Direitos Humanos determina que o exercício da liberdade de expressão pode sofrer limitações previstas em lei, com o objetivo de "promover o reconhecimento e o respeito dos direitos e liberdades dos outros e a fim de satisfazer as justas exigências da moral, da ordem pública e do bem-estar numa sociedade democrática"13.

De igual maneira, o art. 19 (3) do PIDCP - Pacto Internacional dos Direitos Civis e Políticos determina que o exercício do direito à liberdade de expressão implicará em deveres e responsabilidades especiais, podendo estar sujeito a restrições expressamente previstas em lei que se façam necessárias para: "a) assegurar o respeito dos direitos e da reputação das demais pessoas; b) proteger a segurança nacional, a ordem, a saúde ou a moral públicas"13,5.

  • Considerando essas diretrizes de Direitos Humanos, quais critérios claros e objetivos podem ser utilizados para restrição da liberdade de expressão no combate a conteúdos ilegais?

O teste tripartite, previsto no art. 19, especificamente no parágrafo 3°, estabelece os critérios para restrições legítimas à liberdade de expressão, estruturados em um teste de três partes.

Para serem legítimas, as restrições à Liberdade de expressão devem obedecer aos seguintes critérios:

  1. Legalidade: Qualquer limitação à liberdade de expressão deve ter sido prevista com antecedência, de forma expressa e clara em lei, no sentido formal e material. Uma vez que existe proibição de censura prévia, a lei que estabelece a limitação à liberdade de expressão só pode referir-se à exigência de responsabilidades subsequentes. Assim, quaisquer interferências que se baseiem em outras medidas, em princípio, são ilegítimas.
  2. Objetivo legítimo (justificação para proteção): Qualquer limitação deve ser orientada para a consecução de objetivos legitimamente autorizados, que visem proteger os direitos humanos de outros, proteger a segurança direito nacional, ordem pública, saúde pública ou moral pública.
  3. Necessidade e proporcionalidade: A limitação deve ser necessária em uma sociedade democrática para a consecução dos fins imperativos que se buscam; estritamente proporcional ao fim perseguido; e adequado para alcançar o objetivo convincente que busca alcançar. Não se deve limitar um direito além do estritamente indispensável para o alcance da finalidade.

Importante ter em mente que quando um Estado impõe restrições ao exercício da liberdade de expressão, estas não podem colocar em risco o próprio direito.

Portanto, apresentam-se quais seriam as hipóteses de restrição de conteúdos ilegais que o STF deve definir no combate à conteúdos ilegais dentro dos limites de atuação do Poder Judiciário.

  • Quais são as hipóteses de restrição de conteúdos ilegais que o STF deve definir no combate à conteúdos ilegais?

O próprio MCI estabelece que, além da liberdade de expressão, outros princípios devem ser observados, como a dignidade da pessoa humana e a garantia dos direitos humanos (art. 2°, lei 12.965/14)7.

O art. 19 não apresenta as hipóteses de restrição de conteúdos ilegais, devendo ser interpretado em consonância com o ordenamento jurídico internacional para admitir exceções2,6. Embora o MCI já preveja situações excepcionais para aplicação do sistema de notice and takedown, especialmente em casos de conteúdos contendo nudez ou cenas de atos sexuais (art. 21), isso não impede que tais disposições sejam aprimoradas e atualizadas. Esse aperfeiçoamento não significa que o Judiciário estaria invadindo competências legislativas - que devem ser desenvolvidas pelo processo legislativo adequado -, mas, sim, aplicando uma interpretação conforme a CF/88, para abranger outras exceções que possam se justificar.

As exceções podem ser ampliadas, em uma interpretação conforme à constituição, para abranger casos em que há violação grave aos direitos fundamentais, estabelecendo parâmetros claros para que as plataformas tomem ações mais rápidas e eficazes.

As novas hipóteses devem constituir exceções bem definidas de conteúdos manifestamente ilegais gerados por terceiros que:

  1. Atentem contra o Estado Democrático de Direito;
  2. Atentem contra o processo eleitoral;
  3. Racismo;
  4. Exploração e Abuso sexual de crianças;
  5. Terrorismo;
  6. Emergência em saúde pública;
  7. Violência de gênero contra mulheres2.

O fundamento da proposta da fixação destas hipóteses para restrição da liberdade de expressão no combate a conteúdos manifestamente ilegais é justamente a sua previsão e consolidação em instrumentos internacionais de direitos humanos.

Atos que atentem contra o Estado Democrático de Direito

O conteúdo ilegal disseminado em plataformas digitais também pode atentar contra o Estado Democrático de Direito e comprometer o processo eleitoral, representando uma grave ameaça à segurança e à confiança da população nas instituições.

Sobre os Atos que atentem contra o Estado Democrático de Direito, seu fundamento se dá nos principais documentos estruturantes das democracias contemporâneas, como a DUDH e o PIDCP.

A remoção desse conteúdo exige uma atuação preventiva das plataformas, especialmente no combate à desinformação. De acordo com a ONU, as plataformas digitais, como principal ator na manutenção da integridade da informação, devem abster-se de usar, apoiar ou ampliar a informação falsa usada para enfraquecer os processos democráticos24.

Atos que atentem contra o processo eleitoral

Nos Atos que atentem contra o processo eleitoral, seu fundamento se dá nos principais documentos estruturantes das democracias contemporâneas, como a DUDH, no art. 21 e o PIDCP, no art. 25.

Racismo

Sobre o racismo, DUDH, o art. 1, a convenção Internacional sobre a eliminação de todas as formas de discriminação racial8 e a declaração da UNESCO sobre raça e preconceito Racial9.

Consoante a declaração da UNESCO sobre raça e preconceito racial, a mídia de massa deve contribuir para a erradicação do racismo (art. 5º, item 3). O documento reconhece que a comunicação proveniente da liberdade de expressão deve ser um processo "[...] que lhes permita manifestar-se e fazer compreender-se com toda a liberdade"9.

Exploração e abuso sexual de crianças

Segundo a UNESCO10, a proteção das crianças no ambiente digital deve ser realizada em cooperação com o setor privado, que deve ter funções de moderação e ferramentas efetivas de denúncias.

A UNICEF, em cooperação com o Global Compact da ONU e a organização Save the Children, reconhecem que as crianças têm necessidades de desenvolvimento peculiares e são especialmente vulneráveis à exploração e ao abuso. De acordo com o Children's Rights and Business Principles11, as plataformas devem assumir a responsabilidade e evitar tais violações.

A proteção desse aspecto já está consolidada por meio da ratificação da Convenção sobre os Direitos da Criança12. O documento elenca o princípio do melhor interesse da criança e o direito à sobrevivência, que devem sustentar qualquer ação tomada pelas empresas11.

Terrorismo

Outro aspecto relevante que exige uma rápida atuação das plataformas é a remoção de conteúdo de atos de terrorismo.

O direito internacional já proíbe o incitamento à discriminação na Declaração Universal dos Direitos Humanos13, que é definido pelas Nações Unidas como uma forma de expressão que provoca e/ou inclui atos de terrorismo14.

Além disso, a declaração de Delhi, adotada pelo Conselho de Segurança da ONU, consolidou o compromisso do Brasil no combate ao uso de novas tecnologias para fins terroristas15.

A comunidade internacional considera que as plataformas digitais possuem o dever de agir para coibir tais conteúdos. A UNESCO16, por exemplo, já atribuiu às plataformas a responsabilidade pela remoção de transmissões ao vivo de atos de terrorismo.

Emergência em saúde pública

Outra situação delicada ocorre durante episódios de emergência em saúde pública, como observado durante a pandemia da COVID-19. Em tais momentos, a integridade da informação é essencial para a confiança e a segurança da população nas instituições. Durante a pandemia, a proliferação de informações falsas sobre vacinas e medidas de saúde pública causaram danos globais.

No âmbito jurídico, o PIDESC - Pacto Internacional sobre Direitos Econômicos, Sociais e Culturais17 e a Declaração Universal dos Direitos Humanos13 garantem o direito fundamental à saúde.

A OMS determina que as plataformas de mídia social têm a responsabilidade de garantir o acesso à informação de alta qualidade e baseada em evidências na área da saúde18.

Violência de gênero contra mulheres

Outro contexto sensível envolve o aumento da violência facilitada pela tecnologia, que afeta especialmente mulheres em todo o mundo.

Do ponto de vista normativo, a convenção Interamericana para prevenir, punir e erradicar a violência contra a mulher exige que a condenação de todas as formas de violência contra a mulher seja feita "[...] por todos os meios apropriados e sem demora" (art. 6)19.

No âmbito das Nações Unidas, a declaração sobre a eliminação de violência contra as mulheres garante o direito à proteção de todos os direitos humanos e liberdades fundamentais em qualquer campo da vida da mulher (art. 3)20. Disposição semelhante também é vista na convenção sobre a eliminação de todas as formas de discriminação contra a mulher, de 197921.

Outra situação crítica refere-se à difusão de conteúdos pornográficos, especificamente em relação à divulgação não consensual de imagens e/ou vídeos íntimos ou manipulados por novas tecnologias (deepfakes, IA, etc).

Conforme o DSA - Digital Services Act da União Europeia, as plataformas digitais devem garantir os direitos das vítimas por meio do tratamento rápido de notificações e da célere supressão do conteúdo pornográfico ilegal (considerando 87)22.

Essa proibição decorre diretamente da proteção contra violência psicológica e sexual da mulher, prevista em diversos documentos internacionais. Como exemplo, a convenção interamericana para prevenir, punir e erradicar a violência contra a mulher (art. 1) e a Resolução da ONU sobre privacidade na era digital23.

A proteção desse aspecto decorre de instrumentos jurídicos internacionais, como a Convenção Europeia dos Direitos do Homem, que submete o direito à liberdade de expressão a restrições que considera "[..] necessárias, numa sociedade democrática, para a segurança nacional, a integridade territorial ou a segurança pública"25.

Conclusão

Em conclusão, a necessidade de combate à conteúdos ilegais em casos de graves violações aos direitos humanos exige uma abordagem mais proativa e ágil das plataformas digitais.  Nesse sentido, a resposta juridicamente adequada do STF seria declarar a constitucionalidade do art. 19 da lei nº 12.965/2014, proferindo uma interpretação conforme à Constituição para reconhecer o dever de limitação da liberdade de expressão nos casos excepcionais destacados no texto, que atentam contra direitos humanos reconhecidos internacionalmente.

  • Como se sugere ser o dispositivo deste julgamento, equilibrando a proteção da liberdade de expressão com o controle de conteúdos ilegais que possibilite uma aplicação prática destas hipóteses?

Art. 19 da lei 12.965/14 é declarado constitucional, mas, em razão da interpretação conforme à CF/88, reconhece-se que os provedores de internet, websites e gestores de redes sociais poderão realizar a limitação da liberdade de expressão nos seguintes casos excepcionais, desde que o conteúdo seja manifestamente ilegal e se enquadre nas situações abaixo, sem a necessidade de ordem judicial prévia:

  1. Atentem contra o Estado Democrático de Direito;
  2. Atentem contra o processo eleitoral;
  3. Racismo;
  4. Exploração e Abuso sexual de crianças;
  5. Terrorismo;
  6. Emergência em saúde pública;
  7. Violência de gênero contra mulheres.

O provedor de aplicações de internet poderá agir de forma autônoma e imediata na remoção desses conteúdos manifestamente ilegais, sem necessidade de ordem judicial, desde que tal conteúdo seja claramente identificado como violador de direitos fundamentais ou infrator da ordem pública, conforme a Constituição e os tratados internacionais de direitos humanos ratificados pelo Brasil.

A limitação da liberdade de expressão deve ser restrita ao mínimo necessário para a proteção dos direitos fundamentais, com base nos critérios da necessidade, proporcionalidade e adequação.

________

1 NUNES, Vinícius. STF julga ações sobre o Marco Civil da Internet no dia 27 de novembro. 2024.

2 BORGES, Gustavo. STF decide futuro da liberdade de expressão no Brasil. Migalhas, 2024.

3 ONU. A/HRC/47/25: Desinformação e liberdade de opinião e expressão: relatório da Relatora Especial sobre a Promoção e Proteção do Direito à Liberdade de Opinião e Expressão, Irene Khan. 2021. Disponível aqui.

4 ONU. Comentário Geral n. 34: art. 19 Liberdade de opinião e liberdade de expressão. 2011. Disponível aqui.

5 BRASIL. Decreto no 592, de 6 de julho de 1992. Atos Internacionais. Pacto Internacional sobre Direitos Civis e Políticos. Promulgação. 1992. Disponível aqui.

6 LEONARDO, Rodrigo Xavier. Controle de constitucionalidade do Marco Civil da Internet em audiência no STF. Consultor Jurídico, 2023.

7 BRASIL. lei n. 12.965, de 23 de abril de 2014. Estabelece princípios, garantias, direitos e deveres para o uso da Internet no Brasil. Brasília, DF: Diário Oficial da União, 2014.

8 ONU. Convenção Internacional sobre a Eliminação de Todas as Formas de Discriminação Racial. ONU, 1968.

9 UNESCO. Declaração sobre Raça e Preconceito Racial. Paris, UNESCO, 1978.

10 UNESCO; CHILDHOOD BRASIL; INTERNATIONAL TELECOMMUNICATION UNION; BROADBAND COMMISSION FOR SUSTAINABLE DEVELOPMENT. Segurança online de crianças e adolescentes: minimizar o risco de violência, abuso e exploração sexual online. 2020. Disponível aqui.

11 UNICEF; THE GLOBAL COMPACT; SAVE THE CHILDREN. Children's Rights and Business Principles. 2010. Disponível aqui.

12  ONU. Convenção sobre os Direitos da Criança. 1989.

13 ONU. Assembleia Geral. Declaração Universal de Direitos Humanos. Paris. 1948. Disponível aqui.

14 PÉREZ, Ana Laura. As políticas das grandes plataformas referentes a discurso de ódio durante a COVID-19. UNESCO, 2021. Disponível aqui.

15 MINISTÉRIO DAS RELAÇÕES EXTERIORES. XIII Cúpula do BRICS - Declaração de Nova Delhi. 2021. Disponível aqui.

16 UNESCO. Diretrizes para a governança de plataformas digitais: salvaguardar a liberdade de expressão e o acesso à informação por meio de uma abordagem multissetorial. 2023. Disponível aqui.

17 ONU. Pacto Internacional dos Direitos Econômicos, Sociais e Culturais (PIDESC). 1966. Disponível aqui.

18 WORLD HEALTH ORGANIZATION. Reunião de consulta online da OMS para discutir princípios globais para identificar fontes confiáveis ??de informações sobre saúde nas redes sociais. 2022. Disponível aqui.

19 ONU. Convenção Interamericana para Prevenir, Punir e Erradicar a Violência Contra a Mulher, "Convenção de Belém do Pará". 1994. Disponível aqui.

20 ONU. Declaração sobre a Eliminação da Violência contra as Mulheres: resolução / adotada pela Assembleia Geral. 1993. Disponível aqui.

21 ONU.Convenção sobre a Eliminação de Todas as Formas de Discriminação contra a Mulher. 1979. Disponível aqui.

22 UNIÃO EUROPEIA. Digital Services Act: Regulation (EU) 2022/2065 of the European Parliament and of the Council of 19 October 2022 on a Single Market For Digital Services and amending Directive 2000/31/EC. 2022. Disponível aqui.

23 ONU NEWS. Nações Unidas adotam resolução sobre privacidade na era digital. 2014. Disponível aqui.

24 ONU. Informe de Política para a Nossa Agenda Comum: Integridade da Informação nas Plataformas Digitais. 2023. Disponível aqui.

25 CONSELHO DA EUROPA. Convenção Europeia dos Direitos do Homem. 1950. Disponível aqui.