Migalhas de IA e Proteção de Dados

Vieses algorítmicos e o imperativo de enfrentar o racismo estrutural no Brasil

Um princípio comum às leis em matéria de proteção de dados e Inteligência Artificial é o princípio da não discriminação. Todavia, o desafio está em adequar todo o aprendizado de máquinas a partir de dados coletados a partir do que está disponível nas aplicações de Internet.

12/7/2024

Quando no verão de 1955, John McCarthy, Marvin Minsky, Nathaniel Rochester e Claude Shannon compartilharam com o mundo a ideia de que qualquer aspecto da aprendizagem ou atividade humana poderiam ser descritos de forma precisa, permitindo que uma máquina fosse construída para simulá-la1, cunhando-lhe o termo “inteligência artificial” (“IA”), despertou-se na sociedade uma legítima expectativa - tão promissora quanto incerta.

E, embora o termo continue a chamar atenção mais de meio século depois de seu primeiro uso, há controvérsias quanto a sua proposição. Isso porque além de não ser consistente fazer uma analogia entre a autonomia de robôs e a racionalidade humana - dotado de ética, moral e valores que refletem não apenas a personalidade individual, mas a compreensão coletiva da sociedade -, a própria intenção de associar o termo autonomia (lato sensu) à máquina pode não ser ideal, tendo em vista que, muitas vezes, o que se chama autonomia na verdade representa uma “variedade de combinações algorítmicas viabilizadas por um software”2. Portanto, trata-se muito mais de uma reprodução de certos tipos de comando do que, de fato, uma escolha, realizada de forma livre e consciente.

As divergências terminológicas e conceituais quanto à IA refletem o fato de se tratar de um campo em aberto, com significativos avanços nas últimas décadas - especialmente em função do advento do deep learning3 -, mas que ainda está longe de suas potencialidades. Nesse sentido, Kai-Fu Lee4 defende que é possível explicar a evolução da IA a partir de “quatro ondas”:

(i) da internet, por exemplo, por meio do uso de algoritmos de IA que aprendem nossas preferências e passam a nos recomendar conteúdos;

(ii) de negócios, como utilizado por bancos e seguradoras que realizam mineração de dados5;

(iii) de percepção, por exemplo, o aumento do uso de sensores inteligentes; e

(iv) de autonomia, referindo-se à união das três ondas anteriores, permitindo a fusão das capacidades otimização quanto aos grandes conjuntos de dados complexos e percepção sensorial do ambiente externo, por exemplo, os carros autônomos.

Entretanto, o regulador precisa estar atento aos riscos que a IA apresenta. Um caso emblemático, julgado em julho de 2022, após o Departamento de Justiça dos Estados Unidos ter reconhecido o uso de critérios raciais, étnicos, religiosos, sexuais e de renda para definir anúncios de moradia para usuários do Facebook, atentando contra o Fair Housing Act (Lei de Habitação Justa).6

Outro caso que vale a pena ser mencionado é o escândalo envolvendo a Amazon após o preterimento de candidaturas de mulheres em detrimento a de homens por um sistema de IA para recrutamento, implicando em discriminação de gênero.7

Nota-se, ainda, o fato de influenciadores negros terem menor “entrega” e, portanto, engajamento de seus conteúdos em redes sociais8, diminuindo a possibilidade deles se tornarem influenciadores competitivos no mercado digital.

Isso ocorre porque existem “vieses algorítmicos”,9 termo cunhado para descrever as distorções e/ou injustiças resultantes das decisões automatizadas feitas por algoritmos de inteligência artificial10.  A evolução do conceito de viés algorítmico para o direito internacional tem sido gradual, mas significativa. Organizações internacionais, como a União Europeia e as Nações Unidas, têm reconhecido a importância de abordar vieses algorítmicos em suas políticas e diretrizes. Por exemplo, o Regulamento Geral de Proteção de Dados (“GDPR”) da UE inclui disposições que abordam a transparência e responsabilidade no uso de algoritmos de IA que impactam os direitos e liberdades das pessoas11.

Além disso, iniciativas globais, como a “Declaração de Montreal pelo Desenvolvimento Responsável da Inteligência Artificial” (2018)12, destacam a necessidade de garantir a equidade e a não discriminação em sistemas automatizados. No entanto, apesar do reconhecimento crescente, desafios persistem na aplicação efetiva do direito internacional para mitigar vieses algorítmicos, pois sua complexidade técnica e a falta de transparência em sua implementação continuam a ser obstáculos importantes.

Veja mais no portal
cadastre-se, comente, saiba mais

Coordenação

Cintia Rosa Pereira de Lima, professora de Direito Civil da Faculdade de Direito da USP Ribeirão Preto – FDRP. Doutora em Direito Civil pela Faculdade de Direito da USP com estágio na Ottawa University (Canadá) com bolsa CAPES - PDEE - Doutorado Sanduíche e livre-docente em Direito Civil Existencial e Patrimonial pela Faculdade de Direito de Ribeirão Preto (USP). Pó-doutora em Direito Civil na Università degli Studi di Camerino (Itália) com fomento FAPESP e CAPES. Líder e Coordenadora dos Grupos de Pesquisa "Tutela Jurídica dos Dados Pessoais dos Usuários da Internet" e "Observatório do Marco Civil da Internet", cadastrados no Diretório de Grupos de Pesquisa do CNPq e do Grupo de Pesquisa "Tech Law" do Instituto de Estudos Avançados (IEA/USP). Presidente do Instituto Avançado de Proteção de Dados – IAPD - www.iapd.org.br. Associada Titular do IBERC - Instituto Brasileiro de Responsabilidade Civil. Membro fundador do IBDCONT - Instituto Brasileiro de Direito Contratual. Advogada.

Cristina Godoy Bernardo de Oliveira, professora doutora da Faculdade de Direito de Ribeirão Preto – Universidade de São Paulo desde 2011. Academic Visitor da Faculty of Law of the University of Oxford (2015-2016). Pós-doutora pela Université Paris I Panthéon-Sorbonne (2014-2015). Doutora em Filosofia do Direito pela Faculdade de Direito da USP (2011). Graduada pela Faculdade de Direito da USP (2006). Líder do Grupo de Pesquisa Direito, Ética e Inteligência Artificial da USP – CNPq. Coordenadora do Grupo de Pesquisa "Tech Law" do Instituto de Estudos Avançados (IEA/USP). Membro fundador do Instituto Avançado de Proteção de Dados – IAPD.

Evandro Eduardo Seron Ruiz, professor Associado do Departamento de Computação e Matemática, FFCLRP - USP, onde é docente em dedicação exclusiva. Atua também como orientador no Programa de Pós-graduação em Computação Aplicada do DCM-USP. Bacharel em Ciências de Computação pela USP, mestre pela Faculdade de Engenharia Elétrica da UNICAMP, Ph.D. em Electronic Engineering pela University of Kent at Canterbury, Grã-Bretanha, professor lLivre-docente pela USP e pós-Doc pela Columbia University, NYC. Coordenador do Grupo de Pesquisa "Tech Law" do Instituto de Estudos Avançados (IEA/USP). Membro fundador do Instituto Avançado de Proteção de Dados – IAPD.

Nelson Rosenvald é advogado e parecerista. Professor do corpo permanente do Doutorado e Mestrado do IDP/DF. Pós-Doutor em Direito Civil na Università Roma Tre. Pós-Doutor em Direito Societário na Universidade de Coimbra. Visiting Academic na Oxford University. Professor Visitante na Universidade Carlos III, Madrid. Doutor e Mestre em Direito Civil pela Pontifícia Universidade Católica de São Paulo – PUC/SP. Presidente do Instituto Brasileiro de Estudos de Responsabilidade Civil – IBERC. Foi Procurador de Justiça do Ministério Público de Minas Gerais.

Newton De Lucca, professor Titular da Faculdade de Direito da USP. Desembargador Federal, presidente do Tribunal Regional Federal da 3ª Região (biênio 2012/2014). Membro da Academia Paulista de Direito. Membro da Academia Paulista de Letras Jurídicas. Membro da Academia Paulista dos Magistrados. Vice-presidente do Instituto Avançado de Proteção de Dados.