Migalhas de IA e Proteção de Dados

O uso de Inteligência Artificial nas eleições 2024 – Parte 2 (entendendo algumas propostas de regulação de Inteligência Artificial)

Os autores continuam a análise iniciada para exemplificar algumas propostas de regulação do uso de IA nas eleições de 2024 a partir da denominada “Accountability Algorithimic Act” dos EUA e da proposta de Regulamento de Inteligência Artificial da União Europeia.

17/5/2024

A alteração da resolução 23.610 de 2019, com o pacote de 12 resoluções aprovadas pelo Tribunal Superior Eleitoral, apresentou alguns pontos relativos ao uso de IA no processo eleitoral, como: proibição de deepfakes; obrigação de explicitar o uso de IA na propaganda eleitoral; proibição de simulação de diálogo entre candidato e qualquer outra pessoa; responsabilização das empresas que não retirarem imediatamente do ar conteúdos com desinformação ou com discurso de ódio.

Essas regras são interessantes quando for detectada o uso de IA para criação de conteúdo eleitoral e vídeos sem a devida informação ao eleitor. Dessa forma, tal conduta já estará prevista nas resoluções aprovadas e haverá uma respectiva consequência, buscando garantir a democracia.

Mas a pergunta que não foi respondida ainda é como todas estas determinações legais serão fiscalizadas?

Provavelmente não, por isso não é possível dizer que o eleitor estará seguro com tais resoluções, uma vez que será muito difícil identificar este conteúdo gerado pela IA ou o uso de chatbots. Além disso, mesmo que seja identificado o uso indevido deste conteúdo e o responsável por ele, o prejuízo já terá ocorrido, pois os vídeos polêmicos e impactantes são propagados em uma elevada velocidade, sendo que o microtargeting garante que o conteúdo chegue aos destinatários mais suscetíveis a compartilhar tal conteúdo e confirmar as suas convicções. Sobre a importância da proteção de dados e a prática denominada deepfake, consulte nossa coluna.1

De fato, a criação de deepfake está associada à técnica de deep learning, a qual se assemelha ao sistema neural humano, adaptando-se e aprendendo por uma rede de dados. No entanto, tudo isso somente é viável a partir de dados pessoais que são utilizados por uma grande quantidade de software de código aberto, que chegam a resultados cada vez mais precisos.

Esta preocupação não está atormentando somente a sociedade brasileira. Mas Nos Estados Unidos, em 30 de outubro de 2023, o Presidente Joe Binden editou uma ordem executiva impondo alguns requisitos para proteger os americanos e as liberdades individuais dado ao crescente uso da IA. Nesta carta ficaram estabelecidas tais medidas:2

- que as grandes empresas que usam IA informem sobre os testes que fizeram antes de disponibilizar tal ferramenta ao público, bem como sobre os riscos que possam estar associados;

- o National Institute of Standards and Technology vai estabelecer critérios para se alcançar segurança e confiabilidade nos produtos e serviços que usem IA;

- a fim de proteger os americanos contra conteúdo enganosos e fraudulentos, o Department of Commerce estabelecerá diretrizes para autenticação de conteúdo criado totalmente por IA, bem como a indicação disto inserindo uma marca d’água para indicar que o conteúdo foi gerado por IA, o que acabou influenciando o substitutivo do PL 2338 que a Cristina mencionou;

- além de atenção redobrada à cybersegurança. 

Nesta ordem executiva, o Presidente norte-americano sugere que o Congresso norte-americano elabore uma lei específica para assegurar a privacidade dos americanos, já que para treinar os sistemas que usam IA, as empresas precisam de informações diversas.

Nos Estados Unidos, o Algorithmic Accountability Act de 2022 traz uma preocupação com os sistemas de decisões automatizadas, notadamente com os vieses dos algoritmos (exigindo o relatório de impacto), mas não menciona a IA generativa.

Na Europa, avançou a aprovação da proposta de Regulamento Geral sobre IA, conhecido como Artificial Inteligence Act, no art. 52, impõe-se o dever de informar que o sistema usa IA, além disso, foi feita menção expressa ao uso de chatbots e deepfakes: 

Users of an AI system that generates or manipulates image, audio or video content that appreciably resembles existing persons, objects, places or other entities or events and would falsely appear to a person to be authentic or truthful (‘deep fake’), shall disclose that the content has been artificially generated or manipulated. 

Portanto, acredito que a questão ainda precisa ser melhor desenhada pelos reguladores, mas a informação é o melhor remédio, ou seja, informar que o conteúdo foi gerado por IA.

Sobre o tema, Cíntia Rosa Pereira de Lima, Cristina Bernardo de Oliveira e Evandro Eduardo Seron Ruiz3 analisam estas propostas que inspiraram a proposta do Senador Astronauta Marcos Pontes ao Projeto de Lei n. 2338/23, o qual possui um dispositivo que exige a presença de marca d’água em todo conteúdo gerado por IA (quer texto, quer imagem), tornando-se impraticável garantir a efetivação de tal norma.

Isto porque não há uma forma de organizar a fiscalização e a identificação de todos o conteúdo gerado por IA, bem como sua efetiva remoção a tempo hábil. Assim, pode gerar uma falsa sensação de que o conteúdo sem a marca d’água não teria sido criado por IA, quando, na verdade, não foi identificado como tal, e continuará impactando as pessoas que irão confiar na credibilidade na originalidade do conteúdo que não está identificado.

Quanto à obrigatoriedade de remoção de discurso de ódio, nossa coluna já tratou do tema em algumas ocasiões.4 O grande problema é a ausência do que seria o discurso de ódio quer na doutrina, quer na jurisprudência, por exemplo, pornografia enquadra-se como discurso de ódio? Há muitos que defendem que sim. O risco destes conceitos abertos é o fomento a arbitrariedades, o que coloca em xeque um princípio democrático protegido constitucionalmente: a liberdade de expressão.

Por outro lado, o discurso de ódio e condutas antidemocráticas afetam o nosso processo eleitoral e atingem as instituições democráticas. O discurso de ódio viola direitos fundamentais e podem cercear a liberdade de ir e vir, pois um grupo constrangido pode se sentir coagido a não frequentar determinados espaços.

Todavia, a remoção de perfis não seria a medida mais adequada, pois esses indivíduos encontrariam outras plataformas digitais para poderem se expressar e o ódio será cada vez maior.

Por fim, deve-se ter cuidado para não fomentar o que Karl Loewenstein denominou de democracia militante, que afirmou que o nazismo se utilizou dos princípios e garantias presentes em Estados Democráticos de Direito para poderem propagar as suas ideias, logo, ao se retornar à democracia, ela deveria utilizar instrumentos empregados por regimes totalitários ou autoritários, para evitar que ressurgissem.

Em suma, trata-se do dilema secular entre a liberdade e a segurança. E, a grande pergunta que se deve fazer como cidadãos é: quanto de liberdade estamos dispostos a abrir mão para garantir a segurança?

No Brasil, há algumas tentativas legislativas para regulamentar o uso da IA (PL 5.051/2019, 21/2020 e 872/2021), de forma geral estes projetos se fundamentam na regra de responsabilidade civil com base na culpa, estabelecem princípios e fundamentos, o que já constam da Estratégia Brasileira de IA. Então, em fevereiro de 2022, foi instituida uma Comissão de Juristas no Senado Federal para apresentarem um substitutivo, apresentando uma primeira versão do substitutivo em 07 de dezembro de 2022.

Assim, o PL 2.338/2023 é fruto dos trabalhos desta Comissão, apresentado ao Senador Federal Rodrigo Pacheco com objetivo de regulamentar a IA no Brasil. Uma das principais características do projeto é a proposta de uma estrutura institucional de supervisão e controle, que visa dar segurança jurídica a quem inova e desenvolve tecnologia.

Mas é impossível o legislador prever e antever os possíveis usos e aplicações da IA, por isso, creio eu que o melhor caminho seja uma lei geral e principiológica, que indique os fundamentos para o desenvolvimento e uso da IA, bem como direitos básicos dos usuários e a criação de um órgão regulador para assegurar a efetividade de todo o sistema. Entretanto cada setor específico, com a participação deste órgão a ser criado, como o setor de eleições, de automação de veículos e etc..., estabelecerão regras específicas e pertinentes às suas particularidades.

Mas a efetiva solução está realmente na educação digital.

__________

1 NASCIMENTO, Ingrid do; OLIVEIRA, Cristina Godoy Bernardo de. Deepfake nas eleições e a importância da proteção de dados. Disponível aqui.

3 CARDOSO, Thaís. USP Analisa #126: Preocupação com inteligência artificial nas eleições é necessária, mas tecnologia também beneficia eleitor. Disponível em: USP Analisa #126: Preocupação com inteligência artificial nas eleições é necessária, mas tecnologia também beneficia eleitor – Jornal da USP.

4 LIMA, Cíntia Rosa Pereira de; BATISTA, Letícia Soares. Elon Musk VS Alexandre de Moraes e o necessário debate sobre regulação das redes sociais. Disponível aqui.

Veja mais no portal
cadastre-se, comente, saiba mais

Coordenação

Cintia Rosa Pereira de Lima, professora de Direito Civil da Faculdade de Direito da USP Ribeirão Preto – FDRP. Doutora em Direito Civil pela Faculdade de Direito da USP com estágio na Ottawa University (Canadá) com bolsa CAPES - PDEE - Doutorado Sanduíche e livre-docente em Direito Civil Existencial e Patrimonial pela Faculdade de Direito de Ribeirão Preto (USP). Pó-doutora em Direito Civil na Università degli Studi di Camerino (Itália) com fomento FAPESP e CAPES. Líder e Coordenadora dos Grupos de Pesquisa "Tutela Jurídica dos Dados Pessoais dos Usuários da Internet" e "Observatório do Marco Civil da Internet", cadastrados no Diretório de Grupos de Pesquisa do CNPq e do Grupo de Pesquisa "Tech Law" do Instituto de Estudos Avançados (IEA/USP). Presidente do Instituto Avançado de Proteção de Dados – IAPD - www.iapd.org.br. Associada Titular do IBERC - Instituto Brasileiro de Responsabilidade Civil. Membro fundador do IBDCONT - Instituto Brasileiro de Direito Contratual. Advogada.

Cristina Godoy Bernardo de Oliveira, professora doutora da Faculdade de Direito de Ribeirão Preto – Universidade de São Paulo desde 2011. Academic Visitor da Faculty of Law of the University of Oxford (2015-2016). Pós-doutora pela Université Paris I Panthéon-Sorbonne (2014-2015). Doutora em Filosofia do Direito pela Faculdade de Direito da USP (2011). Graduada pela Faculdade de Direito da USP (2006). Líder do Grupo de Pesquisa Direito, Ética e Inteligência Artificial da USP – CNPq. Coordenadora do Grupo de Pesquisa "Tech Law" do Instituto de Estudos Avançados (IEA/USP). Membro fundador do Instituto Avançado de Proteção de Dados – IAPD.

Evandro Eduardo Seron Ruiz, professor Associado do Departamento de Computação e Matemática, FFCLRP - USP, onde é docente em dedicação exclusiva. Atua também como orientador no Programa de Pós-graduação em Computação Aplicada do DCM-USP. Bacharel em Ciências de Computação pela USP, mestre pela Faculdade de Engenharia Elétrica da UNICAMP, Ph.D. em Electronic Engineering pela University of Kent at Canterbury, Grã-Bretanha, professor lLivre-docente pela USP e pós-Doc pela Columbia University, NYC. Coordenador do Grupo de Pesquisa "Tech Law" do Instituto de Estudos Avançados (IEA/USP). Membro fundador do Instituto Avançado de Proteção de Dados – IAPD.

Nelson Rosenvald é advogado e parecerista. Professor do corpo permanente do Doutorado e Mestrado do IDP/DF. Pós-Doutor em Direito Civil na Università Roma Tre. Pós-Doutor em Direito Societário na Universidade de Coimbra. Visiting Academic na Oxford University. Professor Visitante na Universidade Carlos III, Madrid. Doutor e Mestre em Direito Civil pela Pontifícia Universidade Católica de São Paulo – PUC/SP. Presidente do Instituto Brasileiro de Estudos de Responsabilidade Civil – IBERC. Foi Procurador de Justiça do Ministério Público de Minas Gerais.

Newton De Lucca, professor Titular da Faculdade de Direito da USP. Desembargador Federal, presidente do Tribunal Regional Federal da 3ª Região (biênio 2012/2014). Membro da Academia Paulista de Direito. Membro da Academia Paulista de Letras Jurídicas. Membro da Academia Paulista dos Magistrados. Vice-presidente do Instituto Avançado de Proteção de Dados.