Migalhas de Peso

Coded Bias e a Lei Geral de Proteção de Dados

Com a divulgação massiva dos dados, juntamente com o excesso do uso de câmeras de circuitos internos de monitoramento, este tema tomou outra conotação.

30/4/2021

(Imagem: Arte Migalhas)

“Sorria, você está sendo filmado”. Essa frase parece inofensiva. Afinal, em quantos lugares você se lembra de ter lido uma placa com esse conteúdo? Certamente, inúmeros. Normalmente ela acompanha uma carinha feliz. Você entra em um shopping, em uma loja, em um prédio comercial, em um consultório médico, ou em um restaurante e, como parte da recepção, o informativo de que você está sendo filmado.

Mas afinal, este aviso que se espalhou pelas paredes dos espaços públicos e privados do país nas últimas décadas, representa algum perigo?

Com a divulgação massiva dos dados, juntamente com o excesso do uso de câmeras de circuitos internos de monitoramento, este tema tomou outra conotação.

Através da captura dessas imagens se pode obter o que se chama de reconhecimento facial. O que antes não passavam de gravações, com o objetivo de identificar as pessoas e trazer maior segurança, através do algoritmo se tornou uma ferramenta poderosíssima.

O surgimento dos primeiros sistemas de reconhecimento facial não é algo tido como recente. O que é tido como relativamente recente é a disseminação do seu emprego. Trata-se de uma tecnologia que utiliza padrões biométricos para reconhecer e identificar um rosto humano, com mais agilidade e precisão, considerando características únicas de um indivíduo. Começa com a coleta da imagem de uma pessoa, depois um filtro verifica se a imagem é uma face e então as pessoas são classificadas em padrões e as características do rosto são transformadas em pontos de referência, resultando em um identificador associado àquela pessoa. A câmera filma ou registra uma imagem e o sistema busca no banco de dados se há alguma face semelhante.

O reconhecimento facial vive um momento de aplicação generalizada, como em aeroportos, para controlar o acesso em condomínios, bancos, lojas comerciais, escolas, assim como para desbloquear smartphones. No geral os sistemas são dotados de algoritmos com aprendizado de máquinas para aperfeiçoarem seu trabalho ao longo do tempo. Por isso, a variedade étnica de sua população torna o mercado brasileiro ao mesmo tempo atraente e desafiador.

A disseminação propiciou a rápida exploração. O avanço no processamento, coleta e armazenamento de dados, e o aprimoramento de algoritmos de inteligência artificial permitiram que esses sistemas fossem explorados comercialmente e empregados por diversos órgãos, impulsionando a sociedade civil a refletir sobre o uso dessa tecnologia, de modo a aproveitar os seus potenciais e ao mesmo tempo preservar o exercício dos direitos e liberdades civis. O dilema acerca da utilização demandou o movimento da legislação.

No Brasil, o aumento do uso de reconhecimento facial traz a reflexão sobre os limites dessa tecnologia para a segurança pública, tendo em vista a proteção do sistema e precisão do algoritmo. Alguns Estados e Municípios já integraram bases de dados da segurança pública com câmeras de reconhecimento facial, sem antes realizar amplo e transparente debate técnico e jurídico sobre proteção de dados pessoais, privacidade, liberdade de expressão, de reunião e de circulação.

Em Salvador, no carnaval de 2019, um homem fantasiado, procurado desde 2017 por homicídio, foi preso depois de ser capturado pelo sistema de reconhecimento facial.

Em São Paulo, Doria veta projeto para instalação de reconhecimento facial no metrô. Algumas entidades alegaram que o texto ameaçava os direitos fundamentais dos usuários, tendo em vista que a tecnologia de reconhecimento facial possui altos índices de erros com públicos específicos e tende a provocar discriminação. O veto considera que o projeto interfere indevidamente nas competências das empresas que administram o sistema de transporte desses passageiros. Em momento algum o veto se preocupou com a questão da privacidade e proteção de dados dos paulistanos.

No Rio de Janeiro, diversas pessoas foram presas por crimes variados. Foram comparados os rostos dos transeuntes com o banco de dados dos procurados pela Justiça, provido pela Polícia Civil.  A polícia considera que, caso o sistema possa ser adotado em larga escala, será um auxílio tecnológico de grande valia para diminuir a criminalidade. Mas nem todos os casos são de sucessos. Uma mulher foi detida por engano após ter sido reconhecida pelas câmeras. Se não bastasse, havia também um erro na base de dados — a pessoa com quem ela foi confundida já estava presa e essa informação não estava atualizada.

Com o intuito de inibir fraudes, o vestibular da Fuvest adotou a tecnologia do reconhecimento facial. Quando da inscrição on line, os alunos enviam uma foto do seu rosto que e comparada por meio de uma nova foto tirada por fiscais com tablets no durante as provas. Na ocasião da matrícula é feita uma última comparação.

No quesito ao reconhecimento facial, o Reino Unido merece ser observado. A experiência com sistemas de vídeo monitoramento e a constante preocupação da sociedade civil com as possíveis violações aos direitos civis relacionados à privacidade e às liberdades de expressão e associação em espaços públicos, fizeram com que o país desenvolvesse uma robusta legislação sobre o tema ao longo dos anos.  

Diferentemente com o que ocorre na China, que expandiu a cultura da vigilância no período da pandemia para vigiar se as pessoas cumprem a quarentena ou ver se estão usando máscaras.

Nos Estados Unidos, o cenário é diverso. Existem regulações estaduais e municipais para uma pausa no desenvolvimento, até que a tecnologia evolua ou tenha uma regulação mais bem estabelecida. São Francisco foi a primeira cidade do país a proibir reconhecimento facial, seguida de Somerville (Massachusetts) e Oakland, alegando que a tecnologia discrimina as minorias. A propensão da tecnologia de reconhecimento facial colocar em perigo os direitos e as liberdades civis superam substancialmente seus benefícios. Destaca-se que a capacidade de precisão dos sistemas e os potenciais benefícios não podem se sobrepor ao debate sobre direitos e proporcionalidades do uso.

Na França, desde março/2021, empresas responsáveis pelo transporte público podem usar câmeras inteligentes para medir a taxa de uso de máscara. A CNIL (entidade francesa responsável pela proteção de dados) considerou que, em que pese os novos dispositivos terem objetivos de saúde pública, devem se adequar aos regulamentos de proteção de dados pessoais. A captação e análise sistemática das imagens das pessoas trazem riscos para os direitos e liberdades e apresentam o risco de generalizar um sentimento de vigilância entre os cidadãos. Importante implementar garantias que justifiquem a eventual limitação dos direitos das pessoas. Os dispositivos utilizados não podem permitir a identificação direta e imediata de pessoas. Eles não se destinam a tratar dados biométricos e, a priori, não constituem um dispositivo de reconhecimento facial.

No Brasil, ainda não existe nenhuma lei federal para o uso do reconhecimento facial. O debate centrou-se na necessidade de uma regulação que respeite os direitos fundamentais, a privacidade e a informação. Existem alguns projetos de lei no Congresso. Um deles, é o PL 4.612/19, do deputado Bibo Nunes (PSL/RS), que busca criar uma regulação geral para reconhecimento facial, visa implantar e regular o uso da tecnologia na segurança pública, tratando de direitos, limites e boas práticas.

A LGPD tangencia a questão do reconhecimento facial, já que possui diversos dispositivos que podem ser aplicados, como o uso de dados biométricos e sensíveis e a aplicação em contextos de segurança pública. A captura e o armazenamento de dados biométricos do rosto de uma pessoa precisam ser feitos com o seu consentimento e utilizados para uma finalidade específica e determinada. No caso de atividades relacionadas à segurança pública, excetuadas da lei pelo art. 4º, III, os princípios da LGPD seguem aplicáveis, pois o § 1º do mesmo artigo determina que deverá haver lei específica para reger estas atividades e que seus princípios deverão ser os mesmos da LGPD. Dessa forma, é possível afirmar que os princípios poderão ser aplicados para o emprego de reconhecimento facial pelo poder público, inclusive em contextos de segurança pública. A LGPD traz dispositivos voltados aos controladores de dados pessoais para que documentem suas atividades, prestem contas e também regulem sanções de acordo com o nível das medidas de prevenção ao risco adotadas previamente. Colaciona a ideia de Relatórios de Impacto à Proteção de Dados, que, embora não sejam obrigatórios, são recomendáveis e podem auxiliar a prática de documentação e análise de risco pelos agentes envolvidos no sistema do reconhecimento facial.

Coded Bias e o racismo

Você sabia que estão te monitorando? O documentário Coded Bias, que estreou na Netflix em abril de 2021, reúne provas e mostra de forma didática exemplos de violação de direitos civis e falhas inaceitáveis que a inteligência artificial (IA) vem cometendo.

A inteligência artificial é o controle de pessoas por reconhecimento facial e futuro de incertezas. Quando se analisa a criação desses códigos se pode identificar que nessas linhas de algoritmos há muitas falhas que colocam em risco a liberdade. Se eu quero que uma máquina identifique rostos, dou vários exemplos do que é rosto e do não é rosto. Com a análise do conjunto de dados, pode se perceber que muitos dos rostos são de homem e de pele clara. Todo o conceito de inteligência tem vieses inconscientes e as pessoas incorporam seus vieses na tecnologia. Usamos dados para ensinarmos máquinas a identificar diferentes padrões, ou seja, usar dados distorcidos para treinar tais sistemas acarreta resultados distorcidos. A IA é voltada ao futuro, mas baseia-se em dados e dados são reflexo da história. O passado está marcado em nossos algoritmos. Os dados revelam as iniquidades que já ocorreram.

Os mesmos algoritmos que tem o condão de facilitar, também podem ter comportamentos discriminatórios. A combinação dos algoritmos pode alterar a vida das pessoas, indo muito além de apenas sugerir publicidade. Estudos revelam que os sistemas de reconhecimento facial podem produzir resultados imprecisos, especialmente para pessoas que não são brancas, suscitando novas dúvidas sobre a implantação da tecnologia de reconhecimento em larga escala.  O estudo encontrou tanto "falsos positivos"(quando um indivíduo é identificado erroneamente), como "falsos negativos" (nos quais os algoritmos não conseguem definir com precisão a identidade de uma pessoa a partir de uma base de dados). Um falso negativo poderia ser um simples inconveniente, onde, por exemplo, a pessoa não pode acessar seu telefone, podendo ser contornado com uma segunda tentativa. Já um falso positivo justifica uma maior análise.

No caso do documentário, está presente o incômodo que só aumenta a partir daquela máscara branca que abre a exibição do documentário. Grupos ativistas lutam por políticas públicas contra a discriminação tecnológica e sistemas enviesados, já tendo, inclusive, conseguido algumas vitórias na esfera política dos Estados Unidos, com direito a um projeto de lei que espera banir os sistemas de reconhecimento facial do país. Nos traz a reflexão de que todos estamos submetidos a tais controles, ainda que não sejam perceptíveis.  

Portanto, o uso de algoritmos deve seguir os princípios da transparência, da ética e do zelo por parte das empresas na adoção dessa tecnologia, porque senão ninguém vai sorrir para as câmeras. Existem muitos pontos negativos no uso do reconhecimento facial que devem ser considerados. É de se observar o uso indevido do algoritmo. Pede-se cautela, pois, por ser uma tecnologia invasiva traz outros malefícios, como a discriminação. A ocorrência de falsos positivos ou falsos negativos chamam muito mais a atenção no reconhecimento facial do que em qualquer outra técnica de biometria digital. Quando acontece algum equívoco no reconhecimento facial isso fica evidente para o usuário, porque ele está se vendo. A LGPD deve ser respeitada. A adoção do reconhecimento facial no Brasil está apenas começando e sua aceitação pela população não está garantida.

Nós não só nos educamos sobre o reconhecimento facial, como sobre o uso da máquina. Queremos que a lei abarque tudo isso. A batalha continua e tem muita gente inspirada. Ser humano é ser vulnerável. Sendo vulnerável, há maior capacidade de empatia, há maior capacidade de compaixão. Se pudéssemos pensar mais assim na tecnologia, acho que isso reorientaria o tipo de pergunta que fazemos. Ser totalmente eficiente e fazer sempre o que nos mandaram, o que fomos programados para fazer e não o que é mais humano.

Em meio aos debates acerca da regulamentação e ao uso de sistemas sem autorização, creio que deveríamos sorrir ao ler a nova frase: “Sorria, você está sendo reconhecido”.

Rachel Leticia Curcio Ximenes
Bacharel em Direito pela PUC/SP. Mestra e doutora em Direito Constitucional. Presidente da Comissão Especial de Direito Notarial e Registros Públicos da OAB/SP - Ordem dos Advogados do Brasil, Seção São Paulo. Advogada sócia do escritório Celso Cordeiro & Marco Aurélio de Carvalho Advogados.

Veja mais no portal
cadastre-se, comente, saiba mais

Artigos Mais Lidos

Coisa julgada, obiter dictum e boa-fé: Um diálogo indispensável

23/12/2024

Inteligência artificial e direitos autorais: O que diz o PL 2.338/23 aprovado pelo Senado?

23/12/2024

Macunaíma, ministro do Brasil

23/12/2024

PLP 108/24 - ITCMD - Tributação da distribuição desproporcional de dividendos

21/12/2024

Novas regras para o programa de integridade no âmbito da lei de licitações

21/12/2024