Inteligência artificial e parcial
Quanto menos discussões com foco na proteção das minorias acontecerem dentro dos compêndios de tecnologia, menor será a chance de conseguirmos a pretendida isenção da máquina.
quinta-feira, 1 de junho de 2023
Atualizado às 08:01
A inteligência artificial, com sua capacidade de se auto-ensinar, é vista hoje com olhos de extasê e pavor. Na verdade, pouco importa chancelarmos respostas certeiras às dúvidas que a I.A. gera. Fundamental é perguntar: quem realmente deve se apavorar?
A empresa americana Clearview, de armazenamento e gerenciamento de dados biométricos faciais, cujo lema é "Ninguém tem uma base maior do que a Clearview AI", enquanto é rechaçada pela União Europeia e pelos faraós da internet (grupo Meta, Linkedin, Youtube) vem fazendo reuniões, inicialmente secretas, com órgãos oficiais do Brasil desde 2021.
A Clearview alega querer atender à demanda da segurança publica do país, oferecendo um sistema de reconhecimento facial de alta precisão, por meio de métodos de "raspagem" de fotos coletadas da internet.
Balela! A empresa pretende, isto sim, vender seu banco de dados ao redor do globo e alimentar seus algoritmos de I.A. À medida que as polícias dos países e dos estados sobem seus bancos de dados na ferramenta, a Clearview vai ficando mais e mais inteligente às custas dos nossos rostos, dos rostos dos nossos parentes e amigos.
A Europa, continente que já pôs a megaempresa americana para correr por ter como raiz da GDPR (General Data Protection Regulation) os direitos fundamentais do ser humano, não permite que dados sensíveis sejam tratados sem consentimento expresso do titular.
A LGPD, que bebe da mesma fonte humanista da GDPR, determina em seu artigo 4º que ela não se aplica às questões de segurança pública. Entretanto, determina-se que caso os dados sejam tratados por empresa privada, que haja notificação oficial à Autoridade Nacional de Proteção de Dados. Isso significa que nenhum órgão de segurança nacional tem permissão legal para fazer upload dos dados e fotos de seu banco de suspeitos para sistemas de empresas privadas.
Pense no perigo: o que poderá fazer em matéria de poder e política uma empresa privada que hoje detém um banco de dados de 20 bilhões de fotos e que pretende gerenciar, em um futuro próximo, 100 bilhões, junto a órgãos públicos que não cumprem os princípios básicos da lei de proteção de dados pessoais de seu país e que, antes de tudo, deveriam zelar pelos direitos civis básicos dos seus cidadãos?
Mencionar a Clearview é apenas para enriquecer nossa tentativa de resposta à pergunta inicial, sobre quem deve se sentir apavorado. Todos nós, certamente. Alguns mais que os outros. Como há 500 anos!
Os dois principais vieses de consideração que emergem diante de nossos olhos são as intensificações dos avanços rápidos tecnológicos e a manutenção das mesmas desigualdades raciais e sociais de sempre. Nenhum projeto de reconhecimento facial ou de predição de crimes, até hoje, foi desenvolvido pensando em quebrar a estrutura racista que domina os sistemas reais. Talvez pelo fato de os desenvolvedores conscientes e bem-intencionados (aqui, sem ironia) saberem que começar essa aventura pela tecnologia seja uma batalha perdida. Primeiro, deve-se alterar a estrutura social. Curar a ferida. Se não, repetiremos em escala quântica nossas tragédias.
Os Estados Unidos e suas startups do Vale do Silício são experts em criar experiências catastróficas para a comunidade negra, vide estudos de Garvie e Frankle de 2016¹ que apuraram que o sistema de reconhecimento em questão atestava muito mais falsos positivos no reconhecimento de rostos de pessoas negras.
Em teoria, a I.A. nessa seara viria imbuída de neutralidade tecnológica, já que as informações não são construídas diretamente por mãos humanas durante o contínuo aprendizado da máquina. Porém, não esqueçamos que o algoritmo aprende e ensina o que já está sistematizado. E isso é feito por mãos e mentes humanas. Logo, se o sistema é torto, ele assim se manterá e de forma exponencialmente amplificada, apenas reverberando os danos em face dos de sempre.
O argumento que parece imperar é o de cada um com seus problemas, pois a parceria privada entra com a tecnologia e os Estados...eles que garantam a segurança e a justiça social, como se isso fosse possível mediante um lindo e harmonioso acordo entre cavalheiros, que decidem tratar as faces de todo um planeta sem temer regulação alguma.
Muito além do direito de imagem, da autogestão dos nossos próprios dados pessoais e da nossa privacidade, mesmo quando caminhamos por espaços públicos físicos e on-line, estão as consequências delicadas no âmbito criminológico. Não nos enganemos: não há desenvolvimento científico e tecnológico imparcial e nem solução mágica para problemas intrincados em uma sociedade complexa.
Tarcízio Silva, estudioso e autor do livro "Racismo algorítmico: inteligência artificial e discriminação nas redes digitais", em matéria para a revista "Afirmativa" diz que: "a insistência no uso de reconhecimento está arraigada na percepção cultural do privado em prioridade ao público, o que leva a tornar o espaço público um ambiente de suspeição generalizada".
Ora, erros nada isolados vêm acontecendo frequentemente: atores famosos (negros) - Michael B. Jordan - virando suspeitos de chacina; no Rio de Janeiro, a pesquisa "Um Rio de câmeras com olhos seletivos", que analisou o uso do mecanismo pelas polícias fluminenses em 2019, mostrou que sete de 10 detenções por reconhecimento facial no estádio do Maracanã foram equivocadas; motorista (negro) de aplicativo confundido com foragido.
Reproduzo aqui trecho de artigo para a Revista V!rus - recomendadíssima publicação de ensaios críticos e artigos científicos - em que os brilhantes Alex da Rosa, Sara de Araújo Pessoa, Fernanda da Silva Lima apontam uma tríade de linhas de pesquisas urgentes como solução:
"(...)1) Estudos jurídicos na busca de uma legislação limitante da atuação estatal frente às novas tecnologias, principalmente em sua face mais violenta (sistema de justiça criminal); 2) Pesquisas voltadas à análise dos impactos da utilização do reconhecimento facial na criminalização secundária; 3) Estudos que tensionem a gramática racial na programação maquínica destes dispositivos."
Quanto menos discussões com foco na proteção das minorias acontecerem dentro dos compêndios de tecnologia, menor será a chance de conseguirmos a pretendida isenção da máquina. Se é que essa isenção é realmente "pretendida".
Até lá, a periferia tem ainda mais a temer.
_______________
ROSA, A.; PESSOA, S. A.; LIMA, F. S. Neutralidade tecnológica: reconhecimento facial e racismo. V!RUS, SãoCarlos, n. 21, Semestre 2, dezembro, 2020. [online]. Disponível em: http://www.nomads.usp.br/virus/virus21/?sec=4&item=9&lang=pt. Acesso em: 16 Jan. 2023.¹
SAVAZONI, RODRIGO: Redes: O Poder da Conexão em Tempo Real; Ano: 2017; Publicado por: Editora N-1.
AMADEU DA SILVEIRA; SERGIO: Exclusão Digital: A Miséria na Era da Informação; Ano: 2007; Editora Fundação Perseu Abramo.
ROSA, A.; PESSOA, S. A.; LIMA, F. S. Neutralidade tecnológica: reconhecimento facial e racismo. V!RUS, SãoCarlos, n. 21, Semestre 2, dezembro, 2020. [online]. Disponível em: http://www.nomads.usp.br/virus/virus21/?sec=4&item=9&lang=pt. Acesso em: 16 Jan. 2023.
NERIS, NATÁLIA E ABRAMOVAY, RICARDO: Impactos Sociais da Internet: Desafios e Oportunidades; Ano: 2015; Publicado por: Editora SENAC São Paulo.
Francisco Arantes
Advogado do Predolim, Rocco e Moreno Sociedade de Advogados.