Migalhas de Peso

Considerações sobre a utilização dos dados pessoais pela inteligência artificial à luz das normas estabelecidas pela lei 13.709/18

A inteligência artificial é um fator chave no desenvolvimento progressivo de qualquer país. A ciência jurídica em geral não pode ficar alheia a este processo de inovação, devendo antecipar as implicações éticas desse fenômeno.

1/6/2021

(Imagem: Arte Migalhas)

Inteligência artificial é a habilidade de um computador digital ou robô controlado por computador de realizar tarefas comumente associadas a seres inteligentes, esse é o entendimento de B.J. Copeland, autor de Artificial Intelligence1. Em seu livro, o autor ressalta que ao longo dos anos a área obteve grande sucesso em processos automatizados de imagem, interpretação de som, serviços personalizados como a  Amazon e Google, motores de busca, mapeamento online, análise de dados médicos e muitos outros usos. Atualmente, com a disponibilidade de enormes bancos de dados e melhorias recentes na metodologia de aprendizado dessas máquinas, é inconteste que o desempenho da IA está alcançando ou até mesmo excedendo o nível humano em um número crescente de tarefas complexas.

Esses sistemas afetam cada vez mais áreas da vida cotidiana e, na medida em que isso ocorre, os aspectos legais e jurídicos sobre o tema também se desenvolvem. Um exemplo disso é a questão jurídica quanto a atribuição de responsabilidade na tomada de alguma decisão. A Inteligência Artificial realiza o chamado profiling ou perfilamento que consiste no estabelecimento de um perfil dos aspectos pessoais do titular, ocorre que por meio desse fenômeno algumas decisões podem causar distinções depreciativas.

Com o intuito de sanar essa questão, a União Europeia buscou adaptar novos regulamentos que implementam o chamado "direito à explicação", pelo qual o usuário pode pedir explicação sobre determinada decisão algorítmica que foi tomada sobre ele.2

No Brasil, a Lei Geral de Proteção de Dados Pessoais (lei 13.709, de 14 de agosto de 18), que tem inspiração no Regulamento Geral sobre a Proteção de Dados (GDPR), define banco de dados como conjunto estruturado de dados pessoais estabelecido em um ou vários locais, em suporte eletrônico ou físico. A mesma também adverte sobre como devemos proceder com o uso desses dados no treinamento de inteligências artificiais, tendo em vista que o algoritmo pode tomar decisões sobre temas sensíveis e gerar possíveis constrangimentos, exposição indevida dos titulares e até mesmo discriminações. O Brasil adota mecanismo semelhante ao da GDPR, pois nos termos da lei o titular dos dados tem direito a solicitar a revisão de decisões que foram tomadas com base em seus dados por sistemas automatizados.

Conforme os artigos 1º e 2° da lei, o controlador deverá fornecer, sempre que solicitadas, informações claras e adequadas a respeito dos critérios e dos procedimentos utilizados para a decisão automatizada, observados os segredos comercial e industrial. Em caso de não oferecimento de informações baseado na observância de segredo comercial e industrial, a autoridade nacional poderá realizar auditoria para verificação de aspectos discriminatórios em tratamento automatizado de dados pessoais.

Apesar dos conjuntos de dados se tornarem cada vez maiores e as correlações cada vez mais complexas de detectar, a LGPD visa harmonizar os requisitos burocráticos e o empoderamento individual ou coletivo quanto ao tratamento dos dados, já que viabiliza três formas de fiscalização: Pelo próprio titular através do exercício do direito de amplo acesso e de obtenção de informações (previsto no art. 18), pela Autoridade Nacional de Proteção de Dados e pelos agentes de tratamento.

Entretanto, é preciso ressaltar que não há uma observância quanto ao processo decisório realizado exclusivamente por algoritmos. A lei prevê que o titular do dado possui o direito de solicitar uma revisão humana da decisão automatizada. Esse fator é preocupante já que a utilização de Big Data, pela inteligência artificial, é independente e pode apresentar importantes problemas jurídicos, especialmente em termos de proteção.

Para os autores  Barocas e Selbs: “O Big data não é neutro”3, o que pode se afirmar é que os dados  foram coletados da sociedade e, em lógica decorrência dos fatos, na medida em que a sociedade contenha desigualdade, exclusão ou outros traços de discriminação, os dados também terão. Isso pode influenciar no processo decisório e como resultado, o tratamento irrefletido dos dados pode negar aos membros de grupos vulneráveis ??a plena participação na sociedade.

Para o uso do Big Data, uma estratégia abrangente e global se faz necessária. Cabe ressaltar que os dados por si mesmos são inúteis, isso significa que para terem uma função eles devem ser tratados. A inteligência artificial atua buscando encontrar padrões, associações e tendências ocultas que possam existir nos dados. Indústrias e grandes corporações possuem interesse neste tratamento para melhorar sua eficiência, prestando melhores serviços ao cliente e desenvolvendo novos produtos.

Ao longo do tempo, a ideia propagada era de excluir os indivíduos do direito de controlar seus próprios dados, justamente pelo interesse industrial. Atualmente, ao repensar o direito à identidade digital, a recolha e agregação de dados em Big Data não está sujeita a normas de protecção de dados, o quê nos resulta em perspectivas de confidencialidade, com possibilidade de formas específicas de discriminação.

Por essa razão, quando os algoritmos são implantados na sociedade, poucas ou nenhuma decisão é puramente técnica ou exata. O que deve ocorrer, por consequência disso, é a implementação de um projeto ético de algoritmos que requer coordenação entre recursos jurídicos e filosóficos do mais alto calibre. Um começo foi feito, com a implementação da LGPD e, posteriormente,  com a ANPD poderemos entender melhor como ficarão os limites da utilização dos dados a partir da análise dos resultados das fiscalizações.

A utilização do Big Data implica em pelo menos um paradoxo: por um lado, o Big Data garante a máxima transparência e, ao mesmo tempo, não existe uma transparência adequada quanto à sua utilização. Como a transparência é uma questão fundamental, ela influencia a capacidade de um usuário de permitir ou não a divulgação de suas informações.

Esse paradigma pode ser problemático no contexto legal. Em primeiro lugar, a lei e os dados têm múltiplas compreensões, interpretações ou significados possíveis que não podem ser interpretados pela inteligência artificial. Em segundo lugar, essas compressões ou significados são indefinidos e evoluem continuamente, de maneira que não podem ser previstos pelas máquinas. Assim, a maior disponibilidade de dados, em vez de eliminar a necessidade de teoria, aumentam a demanda por regulamentações.

Desse modo, a inteligência artificial pode levar o sistema jurídico a aceitar tomadas de decisões obscuras e não democráticas, muito distantes dos debates carregados de valores que devem guiar uma sociedade livre. Infelizmente, até o momento não há nenhuma evidência convincente de que essas deficiências estruturais, como o resultado discriminatório, possam ser superadas por tecnologia superior. Então, a solução satisfatória e momentânea deve ocorrer mediante o reconhecimento e aderência ao valor do julgamento humano no sistema jurídico, que pode ser complementado pela inteligência artificial, mas nunca substituído pelo algoritmo.

Conclui-se, portanto, que a inteligência artificial tornou-se um fator chave no desenvolvimento progressivo de qualquer país. Atualmente, pode ser observada a introdução de meios eletrônicos únicos de comunicação, como smartphones, para um desenvolvimento integrado de sistemas digitais em escala governamental e privada, em forma de aplicativos e websites. A ciência jurídica em geral não pode ficar alheia a este processo de inovação, ao mesmo tempo que a proteção dos indivíduos, na forma dos direitos tradicionais conhecidos há séculos, devem permanecer inquebráveis.

_______________

1 Professor of Philosophy and Director of the Turing Archive for the History of Computing, University of Canterbury, Christchurch, New Zealand.

2 B. Goodman and S. Flaxman. European union regulations on algorithmic decision-making and a ”right to explanation”. arXiv preprint arXiv:1606.08813, 2016.

3 Barocas, S. and Selbst, A. D. (2016). Big data’s disparate impact. California Law Review, 104. Barocas and Selbst sum the problem up succinctly: “Big data claims to be neutral. It isn’t”

Daniela Souza Gomes
Estudante de Direito IBMEC.

Veja mais no portal
cadastre-se, comente, saiba mais

Artigos Mais Lidos

Alterações no CC com a vigência da nova lei 14.905/24: A taxa de juros Selic se aplica em todos processos em curso?

25/9/2024

Pejotização fraudulenta e competência da Justiça do Trabalho: Um precedente importante da 7ª turma do TRT-1

25/9/2024

Exclusão extrajudicial de sócio na sociedade limitada

25/9/2024

No Brasil, dever em juízo compensa

27/9/2024

Os impressionantes números do registro civil das pessoas naturais e a erradicação do sub-registro

25/9/2024