A relação entre as decisões automatizadas e a discriminação algorítmica à luz da LGPD
A retirada da exigência de intervenção humana no processo revisional de decisões automatizadas se afasta da consecução dos próprios fundamentos de proteção de dados pessoais previstos no art. 2º da LGPD, e potencializa os riscos de obscuridade nos processos decisórios e consequente discriminação algorítmica.
segunda-feira, 1 de novembro de 2021
Atualizado em 3 de novembro de 2021 10:22
A Declaração de Princípios de Genebra da Cúpula Mundial sobre a Sociedade da Informação definiu que a redução da desigualdade em rede é um dos pressupostos necessários à criação de um ambiente digital inclusivo, que seja justo e equitativo para todos. Essa delimitação principiológica, entretanto, não faz com que o ambiente digital seja, de fato, livre de vícios, e as assimetrias na web abrem espaço a uma série de desigualdades, dentre elas, a discriminação algorítmica.
Os algoritmos, que são tarefas lógicas criadas por humanos e alimentadas a partir de rastros deixados por usuários na rede, funcionam a partir de técnicas de inteligência artificial, as quais desenvolvem, em um só sistema, o armazenamento de informações e execução de comandos sem necessitar de interferência humana. Entretanto, apesar dos algoritmos exibirem um aspecto igualitário, é fato que a programação inicial, as bases de dados de treinamento e os rastros deixados em rede não são neutros, o que faz com que seja mais comum do que deveria a adoção de atitudes discriminatórias por tecnologias.
Para Solon Barocas1, qualquer algoritmo só é tão bom quanto os dados que lhe servem como base. Considerando que um dos objetivos fundamentais dos algoritmos é fazer previsões utilizando probabilidades, ele não é responsável por fornecer respostas corretas a todas as questões postas, mas sim por analisar os dados fornecidos e oferecer palpites coerentes para a situação fornecida. Desse modo, se um algoritmo se utiliza de uma base de dados, seja a de treinamento ou os próprios rastros dos usuários na rede, repleta de preconceitos, ele reproduzirá, de forma automatizada, os mesmos padrões aos quais foi apresentado. Como sintetizou George Fuechsel, garbage in, garbage out.
A partir desses pressupostos, é necessário verificar as consequências do uso cada vez mais intenso dos algoritmos no cotidiano da população, em especial devido à crescente aplicação social das chamadas Inteligências Artificiais, que utilizam o aprendizado de máquina (machine learning) e são, portanto, capazes de se modificar a partir dos rastos deixados por usuários em rede. A modificação constante a partir do uso, atrelado ao aumento exponencial da quantidade de dados utilizada e processada pelos sistemas virtuais atualmente (big data) gera o que Rocha, Porto e Abaurre chamam de preocupações quanto ao desenvolvimento de práticas reprováveis dentro de ambientes virtuais.2
A quantidade de dados atrelada ao aprendizado de máquina gera, também, o problema da obscuridade nos processos decisórios. Atualmente, as inteligências artificiais tomaram um espaço tão grande dentro do cotidiano populacional que a lógica algorítmica está cada vez mais presente nos processos de tomada de decisão, sejam eles simples ou complexos. Ou seja, as Inteligências Artificiais estão ganhando maior autonomia dentro do dia-a-dia social, estando presentes desde o cálculo de rotas de mapas até o processo decisório de processos seletivos.
Os algoritmos obscuros, dentro de uma sociedade que reproduz preconceitos online, torna difícil a identificação das discriminações e a consequente previsão delas, de modo que, por vezes, o ambiente digital reforça práticas discriminatórias, em vez de combate-las. O tema da obscuridade ganha relevância não apenas pelos exemplos de discriminação algorítmica a nível pessoal, mas também pela utilização de algoritmos na tomada de decisões públicas mesmo sem o fornecimento dos critérios de escolha e diante de diversos exemplos de discriminação perpetuada pelas máquinas.
Em razão desse fenômeno, diversos são os países ao redor do mundo que têm se preocupado em editar normativas nacionais referentes à minimização de danos ocasionados pela discriminação em rede, bem como a responsabilização civil das empresas envolvidas. Nesse sentido, inclusive, cumpre trazer à tona o conceito de "accountability", um termo inglês que pode ser traduzido como a responsabilidade ética inerente aos sistemas digitais. É responsabilidade dos desenvolvedores fazer com que os processos de tomada de decisão sejam transparentes e pautados em padrões éticos, entretanto, nem sempre é assim que os algoritmos se desenvolvem.
Em decorrência disso, o Regulamento Geral sobre a Proteção de Dados (GDPR) europeu traz, em seu escopo, uma série de medidas humanas para a revisão de decisões tomadas por algoritmos, dando uma maior abertura para que os detentores de dados violados possam se valer contra as ações discriminatórias feitas por Inteligências Artificiais. Cumpre salientar que foi a GDPR, a lei geral de proteção de dados pessoais europeia, que deu azo à criação dos institutos do "direito à explicação" e "direito à revisão".
A regulação específica dos algoritmos pode ocorrer por meios técnicos ou legais, e possui o condão de instruir a criação das bases de dado utilizadas pelos sistemas, de modo que os inputs coletados sejam legítimos e atualizados, e não demonstrem nenhum tipo de viés; e que o algoritmo em si seja transparente em seu funcionamento.
No Brasil, entretanto, o assunto ainda não faz parte de nenhuma legislação nacional. Apesar da recente LGPD trazer em sua redação, originalmente, previsões acerca do direito à revisão humana e direito à explicação, é fato que, em 2019, uma alteração legislativa promovida pela Medida Provisória 869/2018, retirou a necessária atuação humana do texto. Ou seja, no caso de decisões algorítmicas pretensiosas que ocasionem violações aos titulares de dados, a revisão pode ser feita através de novos algoritmos, abrindo margem à geração de novas arbitrariedades digitais.
Paralelo a isso, em que pese tenham ocorrido diversos exemplos recentes de discriminação promovida por Inteligências Artificiais no país - como a utilização do algoritmo de reconhecimento facial pela Polícia Civil da Bahia, baseado em tecnologias com 81% de erro3 - não foram editadas quaisquer novas medidas que pudessem ajudar a conter ou diminuir os efeitos negativos da chamada discriminação algorítmica. Sob esse prisma, surgem, também, preocupações quanto à efetividade da prestação de contas e responsabilização (art. 6º, X, da LGPD) quanto a processos decisórios em que não há intervenção humana direta. Isso porque sob uma falsa alegação de neutralidade dos algoritmos responsáveis por decisões automatizadas, ocultam-se os processos decisórios humanos verdadeiramente responsáveis pelos resultados que, nos termos da lei, afetam os interesses dos titulares de dados pessoais.
Nesses termos, a retirada da exigência de intervenção humana no processo revisional de decisões automatizadas se afasta da consecução dos próprios fundamentos de proteção de dados pessoais previstos no art. 2º da LGPD, e potencializa os riscos de obscuridade nos processos decisórios e consequente discriminação algorítmica. Ou seja, a opção regulatória adotada no Brasil e atualmente positivada no art. 20 da LGDP não é coerente, vez que implica em violações de interesses juridicamente protegidos dos titulares de dados pessoais de forma não motivada e, consequentemente, desproporcional, devendo ser revista.
1 BAROCAS, Solon; SELBST, Andrew D. Big Data's Disparate Impact. 104 California Law Review, California, 2016. Disponível aqui. Acesso em: 20 out. 2021.
2 ROCHA, Cláudio Jannotti da; PORTO, Lorena Vasconcelos; ABAURRE, Helena Emerick. Discriminação algorítmica no trabalho digital. Revista de Direitos Humanos e Desenvolvimento Social, Campinas, v. 1, n. 205201, 2020.
3 SILVA, Tarcízio. Racismo algorítmico em plataformas digitais: microagressões e discriminação em código. VI Simpósio Internacional LAVITS 2019, Salvador, 2019. Disponível aqui. Acesso em: 28 out. 2021.
Lucas Bezerra Vieira
Advogado especialista em startups e novas tecnologias. Sócio do QBB Advocacia. Ex-presidente da Comissão de Direito da Inovação e Startups da OAB/RN. Coordenador do Livres.