O impacto do reconhecimento facial na sociedade
quinta-feira, 2 de março de 2023
Atualizado em 3 de março de 2023 08:21
Um dos motores da inovação é a solução de problemas. Desenvolvemos novas tecnologias buscando trazer soluções para resolver questões que afligem o ser humano, de maneira a garantir uma melhor qualidade de vida, um maior bem-estar social. É assim que avançamos como sociedade.
Na lista dos desafios, temos um que há muito tempo está no topo das prioridades, pois afeta diversos aspectos das relações entre pessoas e instituições, a necessidade fundamental de gerar uma única identificação de um indivíduo, com o máximo de assertividade possível. Isso permite que possamos capturar manifestações de vontade válidas, autenticar operações e gerar provas de autoria.
Sendo assim, a evolução dos algoritmos de reconhecimento facial atende completamente a um grande anseio social e traz tanto ganhos econômicos como de segurança pública. No entanto, como ocorre com qualquer tecnologia, esses algoritmos estão sujeitos também a embarcar riscos e efeitos colaterais que precisam ser devidamente tratados.
Portanto, a tecnologia de reconhecimento facial (TRF), na qual se encaixa na categoria de biometria facial, é uma tecnologia que se concentra em medir e analisar as características físicas e comportamentais de determinada pessoa, por meio da análise facial (do formato do rosto, nariz, boca, olhos), movimentos, rugas, expressões faciais, sendo um processo que utiliza algoritmos de machine learning para gerar uma identificação por meio de uma base de dados comparativa (banco de imagens capturados anteriormente).
O nível de assertividade desta tecnologia deverá considerar alguns aspectos como a qualidade da imagem utilizada, iluminação, quantidade de pixels na imagem do rosto, entre outros itens que impactam na análise biométrica.
A utilização da TRF apresenta inúmeras vantagens: a possibilidade de validações de acessos mais assertivas a determinados ambientes físicos e digitais, em comparação a outros meios como token e senhas, tornar o rosto do indivíduo, com suas características individuais e pessoais, como a principal chave de acesso, além de ser um meio de mitigar fraudes.
Além disso, é possível utilizá-la não apenas para identificar ou verificar a identidade de alguém, mas para inferir o estado emocional, detectar sinais de doenças e envelhecimento por meio de dispositivos médicos.
Mesmo diante de inúmeros benefícios, a TRF é inerentemente de natureza sociotécnica, podendo ser influenciada pela dinâmica social e pelo comportamento humano.
Sendo assim, os riscos e os benefícios podem estar relacionados à interação técnica combinada com fatores sociais que dependem de como a tecnologia é utilizada, suas interações com outros sistemas de inteligência artificial, o contexto social em que ela é implantada e quem a desenvolve e a opera.
Como se trata de um sistema que está em constante aprendizagem, deve-se levar em consideração a base de dados que compõe esta tecnologia. Isso porque, caso as informações não sejam válidas ou corretas, é possível que o resultado da análise feita pela TRF não seja preciso ou, até mesmo, correto. Além disso, como é uma tecnologia desenvolvida por pessoas, os seus desenvolvedores devem ser capacitados dentro das melhores práticas de Environmental, Social, and Corporate Governance (ESG).
Nas soluções de TRF, deve-se analisar as suas especificidades, sobretudo o seu ambiente de aplicação (saúde, bancário, educacional, segurança pública) a fim de identificar os níveis de viés e eventuais riscos envolvidos, frente ao cenário regulatório que abrange cada setor. Por isso a importância de se dar um tratamento mais específico, principalmente através de códigos de conduta e/ou melhores práticas setorizadas.
Embora os algoritmos de reconhecimento facial tenham se tornado mais acessíveis, fazendo parte do cotidiano das pessoas em rotinas que vão desde autenticações no celular em aplicativos de instituições financeiras, até como forma "fast track" em grandes eventos, o seu uso mais maciço, em especial nos espaços públicos, como nos grandes centros urbanos, tem acarretado uma preocupação crescente com três aspectos: ética, privacidade e segurança de dados.
Nos últimos anos, devido à curva de aprendizado da própria tecnologia e às críticas recebidas com relação aos resultados de possível viés discriminatório apontados nas situações de vigilância coletiva, o debate em torno do banimento do reconhecimento facial ficou mais acalorado.
Neste sentido, em 2019, a cidade de São Francisco, nos Estados Unidos, baniu o uso de softwares de reconhecimento facial que eram utilizados pela polícia e agências locais.
Em maio de 2022, a Autoridade Europeia para a Proteção de Dados (EDPS) sugeriu o banimento do reconhecimento de pessoas por inteligência artificial em espaços públicos.
No Brasil, em junho de 2022, a Coalizão Direitos na Rede também promoveu o lançamento de uma campanha nacional pelo banimento das tecnologias de reconhecimento facial na segurança pública, denominada "Tire meu rosto da sua mira".
Além disso, em 20 de janeiro de 2023, foi publicado um relatório preliminar pelo Tribunal de Contas do Município de São Paulo com a indicação de que o projeto para monitoramento e reconhecimento facial que a prefeitura planeja implantar, o Smart Sampa, viola direitos dos cidadãos, em especial da população negra e LGBTQIA+.
Importante esclarecer aqui que, neste aspecto, a problemática está relacionada ao modelo de aprendizagem. Como um agente policial é treinado para reconhecer indivíduos e comportamentos suspeitos? Examinando imagens. E como um algoritmo de reconhecimento facial é treinado? Da mesma maneira.
Apesar do treinamento constante sobre perfis considerados suspeitos e que devem chamar atenção para uma aproximação da autoridade, é recomendável que os protocolos para aplicação de medidas de prevenção em termos de segurança pública, tenham uma dose de aleatoriedade, como acontece na revista de aeroportos e revista de veículos, pois há casos que justamente o infrator é aquele que não condiz com o "perfil suspeito".
Sempre vamos ficar de algum modo incomodados com qualquer tipo de ação preventiva, seja ela para averiguar uma pessoa idosa, uma grávida, uma mulher com criança, um cadeirante. Isso não se restringe às situações em que possa haver traços relacionados a origem racial, orientação sexual, escolha religiosa.
Logo, considerando todas estas implicações, é fundamental a condução de um Comitê de Ética Algorítmica para acompanhar todas as etapas da implementação, responder às denúncias e aplicar as devidas melhorias, dentro de um programa de aperfeiçoamento contínuo, que deve também garantir responsabilização e penalização de abusos.
Considerando todo este contexto, é importante ressaltar que em todo processo de identificação e autenticação por imagem comparativa há algum risco de erro, seja ele executado por humano ou por máquina. Claro que se busca com o avanço das ferramentas, que a tecnologia seja mais eficiente e capaz de diminuir essa taxa de erro, além de seguir um protocolo mais rígido de transparência, ética, segurança e proteção de dados.
Com toda certeza, qualquer contratação de TRF precisa ser acompanhada de uma análise criteriosa para o cumprimento de requisitos técnicos e legais, em conformidade com a legislação vigente, especialmente a Lei 13.709/2018 (LGPD), que já exige inclusive apresentação de relatório de impacto para o tratamento de dados pessoais sensíveis, que é o que ocorre nesse tipo de solução.
É indiscutível que o uso do reconhecimento facial mudou a forma como nos relacionamos, afeta comportamentos e traz grandes impactos na sociedade. Por isso, precisa ser tratado sempre observando a melhor técnica e não apenas o menor preço, principalmente quando afetar diretamente o cidadão e sua interação com o agente público. Afinal, cabe ao Estado o dever de proteger e garantir a defesa dos direitos fundamentais dos indivíduos, assim como o poder de polícia e a segurança pública.
O melhor caminho é focar no desenvolvimento da inovação sustentável, que cumpra com protocolos e medidas de salvaguarda, com regras claras, capazes de serem compreendidas pelos usuários, supervisionadas pela Sociedade Civil e fiscalizadas pelas Autoridades, dentro de um processo colaborativo e participativo.
Referências
Disponível aqui. Acesso em 14 de fevereiro de 2023.
Disponível aqui. Acesso em 14 de fevereiro de 2023.
Disponível aqui. Acesso em 14 de fevereiro de 2023.
Disponível aqui. Acesso em 14 de fevereiro de 2023.
Disponível aqui. Acesso em 14 de fevereiro de 2023.