Migalhas de IA e Proteção de Dados

Direito de validação e IA: O direito a inferências razoáveis em decisões automatizadas e o fortalecimento da proteção dos dados pessoais

Na área de proteção de dados, é o que iremos conhecer como decisões automatizadas baseadas em perfis.

26/5/2023

Você está vivendo em uma simulação de computador? Este é o provocativo questionamento feito por Bostrom, filósofo da Universidade de Oxford, no seu famoso artigo publicado em 2001. No seu trabalho, conjectura sermos simulações de antepassados de uma civilização pós-humana altamente tecnológica situada em algum momento distante no futuro – argumento que ganhou, recentemente, atenção por conta do filme Bandersnatch e das declarações de Elon Musk. Apresar de se tratar de especulações e de reflexões teóricas, outra situação bastante real com substratos semelhantes já está acontecendo, embora não seja, por todos, perceptível de plano.

A diferença é a mudança no eixo temporal. Se, na ideia originária, o futuro simula o passado, o que está acontecendo agora é justamente o inverso – o passado simulando o futuro por meio de tratamento de dados, dentre os quais os pessoais. Este é um dos argumentos principais de Zuboff1: a formação de mercados comportamentais futuros que se baseiam em tecnologias preditivas e inferenciais aplicadas às pessoas para lhes determinar perfis, os quais são utilizados como insumo para que controladores (fornecedores, empregadores, poder público e assim por diante) decidam situações que, em função disto, deixam de ser contingenciais e passam a ser moduladas, como muito bem esclarece Cohen2.

Na área de proteção de dados, é o que iremos conhecer como decisões automatizadas baseadas em perfis. Como o próprio nome sugere, esta espécie de tratamento de dados se dá por um processo cíclico e dinâmico – a própria LGPD trata de perfilização e decisões automatizadas em conjunto3, embora não se confundam em seu significado.

De todo modo, esse processamento comporta algumas fases. Em um primeiro momento, dados pessoais são coletados e agregados a outros dados, formando um dataset que será usado para formar um modelo algorítmico. Nesta fase, geralmente, os dados são anonimizados, perdendo, a priori, a capacidade de tornar o titular identificado ou identificável. A partir daqui a LGPD deixa de ser aplicável. Na sequência, são executadas técnicas de data analytics, as quais analisam estes dados e encontram correlações entre eles, formando perfis de grupos, gerando conhecimentos baseados em probabilidades e estatísticas, e não em causalidade4 e na realidade observável.

Assim, por exemplo, pode ser descoberto que pessoas do sexo masculino, na faixa entre 25 e 30 anos, que jogam videogame e compram cerveja duas vezes por semana tenham apenas 15% de probabilidade de quitar com suas dívidas – isto é uma inferência preditiva relativa a esse conjunto de pessoas. Aqui se faz uma observação: a maioria dos processos de perfilização de grupo são não-distributivos, ou seja, nem todos os membros do grupo terão determinado atributo ou característica descoberta nas correlações. Para deixar mais claro, exemplifiquemos: em um dado bairro, foi identificado que 80% das pessoas que têm olhos azuis utilizam óculos – este é o perfil do grupo. Fica cristalino que, neste caso, de 10 pessoas, apenas 8 usam óculos, mas todas serão tratadas de acordo com o perfil de grupo, independentemente de suas particularidades.

Mas como essa peça informacional não se refere a alguém em específico, senão a um grupo indeterminado que pretensamente comunga algo identificado por dados, esta inferência, em si, não é um dado pessoal. Todavia, quando, pela coleta de dados pessoais de um titular em particular em outro momento se identificarem pedaços informacionais que revelem semelhanças com o padrão do modelo, a ele se aplicará este perfil de grupo, voltando então a ter status de dado pessoal. A LGPD, nesse sentido, acertou quando estabeleceu que “poderão ser igualmente considerados como dados pessoais, para os fins desta Lei, aqueles utilizados para formação do perfil comportamental de determinada pessoa natural, se identificada”5.

Disso conclui-se que inferências aplicadas a determinado sujeito são, conforme a definição legal, dados pessoais aptos a atrair, novamente, a LGPD.

A questão problemática não é exatamente esta; é, outrossim, a razoabilidade destas inferências que se tornam dados pessoais pela aplicação do perfil em uma decisão automatizada que determinará situações da vida do titular, desde recomendações de filmes até mesmo a decisões propriamente ditas referentes a benefícios sociais ou à desplataformização de consumidores e trabalhadores da era digital, entre outras possibilidades. Os riscos de não se aplicar a LGPD na fase de formação das inferências, bem como de não haver tutela específica sobre a correção, exatidão, atualidade ou mesmo qualidade inferencial deixa o titular de dados de mãos atadas para exercer os seus outros direitos (ex ante e ex post à decisão automatizada).

Qual a razoabilidade de, hipoteticamente, uma instituição financeira negar crédito a um consumidor porque compra cervejas, joga videogames e é relativamente jovem, ao par de ter um bom histórico de crédito ou mesmo a existência de poupanças e rendimentos? Ou, ainda, de se aplicar inferências resultantes de um modelo algorítmico que tem maior precisão para homens brancos do que para mulheres pretas em seleções de currículos para vagas de trabalho? Vejam que há questões que perpassam de confiabilidade do sistema, discriminação e generalização de autorrepresentações6 com resultado injusto e em violação à autodeterminação individual. É exatamente sobre isso de que trata o direito a inferências razoáveis.

De acordo com o Projeto de Lei do Senado n. 2338, de 2023, originado do Substitutivo do Marco Regulatório da IA no Brasil, são irrazoáveis as inferências que: (i) sejam fundadas em dados inadequados ou abusivos para as finalidades de tratamento; (ii) sejam baseadas em métodos imprecisos ou estatisticamente não confiáveis; e (iii) não considerem de forma adequada a individualidade e as características pessoais do indivíduo7.

Este é um dos pontos de intersecção entre a lex data e a iminente lex artificialis intelligentia: o direito a inferências razoáveis, que (re)estabelece o foco não no processamento e coleta de dados pessoais somente, mas na sua avalição e no seu julgamento preditivo aplicável a importantes situações. Por seu intermédio, estabelece-se deveres dialógicos-comunicativos entre controladores e fornecedores de IA com os afetados desde as escolhas de design até a aceitabilidade normativa e a relevância da inferência de acordo com a finalidade buscada por quem emprega sistemas inteligentes8, além de outras questões que fogem do escopo desta breve reflexão.

Sinalize-se que este novo direito faz parte de um procedimento mais complexo e completo do que prevê o art. 20 da LGPD, o que definimos como supradireito de validação9, apto a melhor tutelar os titulares de dados/afetados pela IA. Esse supradireito é um direito não explícito que estabelece que todas as decisões automatizadas baseadas em perfis que afetem os direitos ou interesses significativos dos titulares devam ser submetidas a um método legal de validação para garantir que sejam justas, transparentes, imparciais e não discriminatórias.

Embora implícito, se concretiza por outros direitos, notadamente de caráter procedimental, abarcando desde a formação de um modelo algorítmico, o direito à informação prévia sobre a utilização de sistemas de inteligência artificial, contestação, revisão, até a possibilidade de se exigir justificações em respeito ao resultado de uma dada decisão em particular – ideia esta que melhor desenvolveremos em outra oportunidade.

Em tempos em que “agentes inteligentes” são autônomos ou prescindem de supervisão humana, mas cujos efeitos são diretos nas esferas jurídicas e existenciais das pessoas, o básico é termos algum nível de validação de decisões significativas tomadas para ou por nós, por meio de um procedimento jurídico constante nos direitos dos titulares e em diálogo com aqueles a futura lei sobre IA – que vai passar, necessariamente, pela verificação da razoabilidade das inferências criadas e utilizadas.

__________

1 Estas possibilidades advêm de “novas capacidades para inferir e deduzir pensamentos, sentimentos, intenções e interesses de pessoas e grupos com uma arquitetura automatizada que opera como um espelho unidirecional independentemente de consciência, conhecimento e consentimento da pessoa, possibilitando, assim, acesso secreto e privilegiado a dados comportamentais.” (ZUBOFF, Shoshana. A era do capitalismo de vigilância: a luta por um futuro humano na nova fronteira do poder. Rio de Janeiro: Intrínseca, 2021).

2 "A modulação é um modo de invasão de privacidade, mas também é um modo de produção de conhecimento projetado para produzir uma maneira específica de saber e um modo de governança projetado para produzir um tipo específico de sujeito. Seu propósito é produzir consumidores-cidadãos dóceis e previsíveis cujos modos preferidos de autodeterminação se desenvolvem ao longo de trajetórias previsíveis e rentáveis. (...) um processo muito mais sutil de feedback contínuo, os estímulos são adaptados para atender a inclinações existentes, orientando-os em direções que se alinham com objetivos de maximização de lucro". (trad. nossa). (COHEN, Julie E. What Privacy is for? Harvard Law Review, v. 126, p. 1904-1933, 2013. p. 1917).

3 LGPD. Art. 20. O titular dos dados tem direito a solicitar a revisão de decisões tomadas unicamente com base em tratamento automatizado de dados pessoais que afetem seus interesses, incluídas as decisões destinadas a definir o seu perfil pessoal, profissional, de consumo e de crédito ou os aspectos de sua personalidade.

4 Conforme Miragem, "(...) registre-se que correlação é a medida da relação entre duas variáveis, que pode ser demonstrada em termos estatísticos e não implica necessariamente em uma relação de causa e efeito (p.ex. a frequência de aquisição de determinados produtos pelos consumidores se dá em determinado horário ou em determinado dia da semana), como ocorre no juízo de causalidade, no qual a relação entre duas variáveis pressupõe que uma é consequência da outra". (MIRAGEM, Bruno. A Lei Geral de Proteção de Dados (Lei 13.709/2018) e o direito do consumidor. Revista dos Tribunais, São Paulo, v. 1009, p. 173-222, nov. 2019).

5 LGPD. Art. 12. Os dados anonimizados não serão considerados dados pessoais para os fins desta Lei, salvo quando o processo de anonimização ao qual foram submetidos for revertido, utilizando exclusivamente meios próprios, ou quando, com esforços razoáveis, puder ser revertido. § 1º A determinação do que seja razoável deve levar em consideração fatores objetivos, tais como custo e tempo necessários para reverter o processo de anonimização, de acordo com as tecnologias disponíveis, e a utilização exclusiva de meios próprios. § 2º Poderão ser igualmente considerados como dados pessoais, para os fins desta Lei, aqueles utilizados para formação do perfil comportamental de determinada pessoa natural, se identificada.

6 Veja entendimento de: MARTINS, Pedro Bastos Lobo. Profiling na Lei Geral de Proteção de Dados: o livre desenvolvimento da personalidade em face da governamentalidade algorítmica. Foco: Indaiatuba, 2022.

7 PL 2338/2023. § 2º O direito à contestação previsto no caput deste artigo abrange também decisões, recomendações ou previsões amparadas em inferências discriminatórias, irrazoáveis ou que atentem contra a boa-fé objetiva, assim compreendidas as inferências que: I – sejam fundadas em dados inadequados ou abusivos para as finalidades do tratamento; II – sejam baseadas em métodos imprecisos ou estatisticamente não confiáveis; ou III – não considerem de forma adequada a individualidade e as características pessoais dos indivíduos.

8 WACHTER, Sandra; MITTELSTADT, Brent. A right to reasonable inferences: re-thinking Data Protection Law in the Age of Big Data and AI. Columbia Business Law Review, v. 2019. p. 496-620, 2019.

9 Sobre o tema, refira-se que foi originalmente concebido na tese de doutoramento de Guilherme Mucelin, defendida perante a Universidade Federal do Rio Grande do Sul (UFRGS) em setembro de 2022, orientada pela Profª Drª Sandra Regina Martini e intitulada "Direito de validação das decisões individuais automatizadas baseadas em perfis de consumidores".

Veja mais no portal
cadastre-se, comente, saiba mais

Coordenação

Cintia Rosa Pereira de Lima, professora de Direito Civil da Faculdade de Direito da USP Ribeirão Preto – FDRP. Doutora em Direito Civil pela Faculdade de Direito da USP com estágio na Ottawa University (Canadá) com bolsa CAPES - PDEE - Doutorado Sanduíche e livre-docente em Direito Civil Existencial e Patrimonial pela Faculdade de Direito de Ribeirão Preto (USP). Pó-doutora em Direito Civil na Università degli Studi di Camerino (Itália) com fomento FAPESP e CAPES. Líder e Coordenadora dos Grupos de Pesquisa "Tutela Jurídica dos Dados Pessoais dos Usuários da Internet" e "Observatório do Marco Civil da Internet", cadastrados no Diretório de Grupos de Pesquisa do CNPq e do Grupo de Pesquisa "Tech Law" do Instituto de Estudos Avançados (IEA/USP). Presidente do Instituto Avançado de Proteção de Dados – IAPD - www.iapd.org.br. Associada Titular do IBERC - Instituto Brasileiro de Responsabilidade Civil. Membro fundador do IBDCONT - Instituto Brasileiro de Direito Contratual. Advogada.

Cristina Godoy Bernardo de Oliveira, professora doutora da Faculdade de Direito de Ribeirão Preto – Universidade de São Paulo desde 2011. Academic Visitor da Faculty of Law of the University of Oxford (2015-2016). Pós-doutora pela Université Paris I Panthéon-Sorbonne (2014-2015). Doutora em Filosofia do Direito pela Faculdade de Direito da USP (2011). Graduada pela Faculdade de Direito da USP (2006). Líder do Grupo de Pesquisa Direito, Ética e Inteligência Artificial da USP – CNPq. Coordenadora do Grupo de Pesquisa "Tech Law" do Instituto de Estudos Avançados (IEA/USP). Membro fundador do Instituto Avançado de Proteção de Dados – IAPD.

Evandro Eduardo Seron Ruiz, professor Associado do Departamento de Computação e Matemática, FFCLRP - USP, onde é docente em dedicação exclusiva. Atua também como orientador no Programa de Pós-graduação em Computação Aplicada do DCM-USP. Bacharel em Ciências de Computação pela USP, mestre pela Faculdade de Engenharia Elétrica da UNICAMP, Ph.D. em Electronic Engineering pela University of Kent at Canterbury, Grã-Bretanha, professor lLivre-docente pela USP e pós-Doc pela Columbia University, NYC. Coordenador do Grupo de Pesquisa "Tech Law" do Instituto de Estudos Avançados (IEA/USP). Membro fundador do Instituto Avançado de Proteção de Dados – IAPD.

Nelson Rosenvald é advogado e parecerista. Professor do corpo permanente do Doutorado e Mestrado do IDP/DF. Pós-Doutor em Direito Civil na Università Roma Tre. Pós-Doutor em Direito Societário na Universidade de Coimbra. Visiting Academic na Oxford University. Professor Visitante na Universidade Carlos III, Madrid. Doutor e Mestre em Direito Civil pela Pontifícia Universidade Católica de São Paulo – PUC/SP. Presidente do Instituto Brasileiro de Estudos de Responsabilidade Civil – IBERC. Foi Procurador de Justiça do Ministério Público de Minas Gerais.

Newton De Lucca, professor Titular da Faculdade de Direito da USP. Desembargador Federal, presidente do Tribunal Regional Federal da 3ª Região (biênio 2012/2014). Membro da Academia Paulista de Direito. Membro da Academia Paulista de Letras Jurídicas. Membro da Academia Paulista dos Magistrados. Vice-presidente do Instituto Avançado de Proteção de Dados.