Texto de autoria de Chiara Spadaccini de Teffé e Elora Raad Fernandes
Imagine estar andando na rua, alguém tirar uma foto sua e, com essa imagem, ser capaz de visualizar uma série de informações sobre você, com base, principalmente, em sua atividade online. Isso incluiria, por exemplo, seus perfis nas mídias sociais, os locais onde frequenta e as pessoas que você conhece. Imagine ainda que, de forma constante, sua imagem seja captada e seus dados biométricos analisados por sistemas de vigilância e monitoramento instalados nas vias públicas. Tecnologias de reconhecimento facial assim desenhadas vêm sendo utilizadas por autoridades e agentes privados em nível global. No Brasil, esse cenário não é diferente e a tendência é que, após a pandemia de Covid-19, haja uma ampliação das ferramentas de controle e vigilância sobre a população.
Mas quais são os efeitos de uma vigilância constante a partir da tecnologia de reconhecimento facial? De um lado, há promessas de maior segurança, em âmbito público e privado, e de acesso facilitado a produtos e serviços. De outro, com a intensa aplicação dessa tecnologia, passa-se a ser regularmente controlado, o que sem dúvidas traz diversos questionamentos em relação à proteção de direitos fundamentais, como a igualdade, intimidade e liberdade de expressão. Não são poucos os riscos gerados pelo reconhecimento facial, principalmente a partir do tratamento de dados sensíveis, sendo necessário discutir se e como deve ocorrer a utilização dessa ferramenta.
A maior parte das tecnologias de reconhecimento facial trabalha, basicamente, por meio de dois passos: (I) registro (enrollment) e (II) correspondência ou reconhecimento (matching). Essas fases podem ser divididas em quatro passos: captura, desconstrução, armazenamento e comparação, a depender da finalidade para a qual a tecnologia será utilizada. O resultado da comparação é dado em porcentagem, isto é, na probabilidade de uma imagem mostrar a mesma pessoa presente em outra imagem contida na base de dados. Assim, os resultados são fornecidos pelo sistema respeitando uma ordem de “sobreposição” das características da imagem, podendo retornar diversas opções para o operador.1
A acurácia do sistema depende de uma série de fatores, como o ambiente, a idade, as diferentes emoções demonstradas, a luz do local, a distância da câmera e a orientação da cabeça2. Da mesma forma, caso a pessoa apresente modificações no corte de cabelo, use maquiagem ou utilize acessórios como lenços, máscaras ou óculos, o sistema pode ter dificuldades em realizar o reconhecimento. É possível também que haja semelhanças entre pessoas diferentes, especialmente se elas forem geneticamente relacionadas.3
No âmbito público, o reconhecimento facial tem sido utilizado principalmente para a segurança pública, controle de fronteiras, prevenção de fraudes e roubos de identidade, proteção da saúde pública (verificando o deslocamento de pessoas infectadas por Covid-19 e possíveis aglomerações em espaços públicos, por exemplo), na área da educação e no transporte público.
Exemplo emblemático relacionado à segurança pública é o caso da Clearview AI, startup estadunidense que desenvolveu um aplicativo de reconhecimento facial com fotos extraídas de diversas mídias sociais e sites. A partir da imagem de uma pessoa, é possível identificar outras fotos suas, além de links de onde essas fotos aparecem. Esse aplicativo foi utilizado por agências policiais nos Estados Unidos e podia identificar ativistas em um protesto ou então pessoas consideradas suspeitas no metrô, revelando diversas informações, como nome, endereço, o que faziam e quem conheciam.
O aplicativo também foi utilizado por empresas para fins de segurança privada. A partir dessas parcerias, a startup passou a ter informações privilegiadas, por exemplo, sobre quem estava sendo procurado ou considerado suspeito de algum ilícito. Outras companhias, como a Amazon, também já realizaram parcerias com agentes públicos para o uso de tecnologias de reconhecimento facial, o que demonstra a linha tênue existente entre interesses públicos e privados nessa seara4. Isso faz soar alarmes importantes sobre o poder que vem sendo concentrado nessas empresas, bem como acerca dos bancos de dados sensíveis desenvolvidos a partir do uso de ferramentas tecnológicas de vigilância.
No Brasil, sistemas de reconhecimento facial já são aplicados desde pelo menos 2011, sendo sua utilização para fins de segurança largamente expandida em 2019, principalmente durante o carnaval, por meio de parcerias com agentes privados. Hoje, mais de 40 cidades no país adotam a tecnologia.
Além de auxiliar a segurança, no âmbito privado o reconhecimento facial tem sido utilizado para diversos outros propósitos5. Através dele, é possível, por exemplo, identificar clientes, personalizar serviços a partir das reações dos usuários, prevenir fraudes, reconhecer indivíduos com condenações por furtos em lojas e controlar o acesso em dispositivos, instituições, residências e ambientes internos de empresas.
Nesse âmbito, vale recordar, por exemplo, o caso do Metrô da Linha 4 de São Paulo, cuja concessionária coletava a reação de passageiros às publicidades exibidas através de câmeras instaladas nas telas das plataformas6; o caso da Hering, que desenvolveu uma loja conceito que utilizava a tecnologia de reconhecimento facial para monitorar a reação dos clientes às roupas; e o caso do Carrefour, que também desenvolveu uma loja conceito, na qual os clientes escolhiam entre o reconhecimento facial ou a leitura de um QR Code para realizar compras.
Embora possa melhorar a experiência no varejo, tal aplicação tem gerado grandes quantidades de dados sensíveis sobre movimentos, preferências e associações de indivíduos, o que traz sérias consequências para a privacidade e a proteção dos dados dos consumidores. Além disso, pode gerar diversas violações relacionadas aos direitos de liberdade e igualdade.7
Será necessário refletir, por exemplo, acerca da existência de um direito ao anonimato nos espaços públicos. O mero fato de ser o local um espaço público, por si só, já permitiria a adoção pelo Estado de tecnologias de vigilância e controle? Com a ampliação do reconhecimento facial, o Estado poderá rastrear seus cidadãos, verificando que lugares eles frequentam, e manter bancos de dados específicos com informações de participantes em manifestações políticas ou de pessoas com opiniões contrárias ao governo. Isso impõe um necessário cuidado com a observância de certos fundamentos éticos e com a proteção da liberdade de expressão, uma vez que, sabendo que está sendo vigiada, a pessoa pode não se comportar da mesma maneira, sendo inclusive silenciada.8 A liberdade religiosa também pode ser ameaçada, nos casos em que elementos como o véu ou a burca prejudicarem o reconhecimento de pessoas e seu uso for, em seguida, limitado ou vedado.
Adicionalmente, há questões graves relacionadas ao direito à igualdade. Em um futuro em que o reconhecimento facial seja naturalizado, por exemplo, os mais abastados poderão realizar cirurgias plásticas ou utilizar outros artifícios para escapar dessas tecnologias. E, mais grave ainda: já foram demonstradas diferenças de taxa de acurácia no reconhecimento de pessoas de diferentes raças, gêneros e idades,9 podendo o uso dessa tecnologia ensejar cenários de discriminação.10 Exemplo claro disso ocorreu recentemente, quando uma falha no sistema de reconhecimento facial fez com que um homem negro fosse preso por engano. Essas tecnologias têm feito, também, com que diversas pesquisas sejam realizadas buscando identificar criminalidade, homossexualidade e traços psicológicos através dos traços do rosto, fazendo-nos voltar a teorias lombrosianas, que pareciam já superadas.
Por fim, há também a potencialidade de essa tecnologia reificar o corpo humano, que passa a ser um objeto “cujas dimensões são medidas, coletadas e usadas para fins que nem sempre são muito claros [...]. A pessoa é reduzida a apenas um algoritmo digital”.11
Protestos generalizados em razão da violência policial e da preocupação de que sistemas de reconhecimento facial sejam falhos e perpetuem visões racistas vêm colocando a questão cada vez mais em voga. Na França e na Suécia, foi proibida a utilização de reconhecimento facial nas escolas; nos Estados Unidos, cidades como Berkeley, San Francisco, Oakland, Cambridge, Summerville e Boston baniram o uso de imagens coletadas por dispositivos de reconhecimento facial por autoridades públicas e o estado da Califórnia instituiu uma moratória de três anos para o uso de câmeras nos uniformes dos policiais. Nesse mesmo país, setenta organizações da sociedade civil coletaram 150 mil assinaturas contra o uso da tecnologia. Nessa direção, algumas empresas já anunciaram que estão evitando lançar esse tipo de tecnologia ou mesmo que cancelaram suas pesquisas no tema.12
O debate acerca da regulação da tecnologia é global. Contudo, há uma discordância essencial em como ela ocorrerá. Basicamente, há aqueles que defendem um uso limitado da tecnologia, a partir da identificação de atividades específicas nas quais ela poderia ser utilizada. Há também quem entenda pela suspensão do uso do reconhecimento até que sejam desenvolvidas normas e precisão adequada à ferramenta, em razão de ela não ser ainda suficientemente madura e confiável para ser utilizada de maneira segura e justa com populações vulneráveis.13 Outros especialistas afirmam, porém, que seu banimento seria necessário, uma vez que o vigilantismo opressivo seria intrínseco à própria tecnologia.14
Em relação aos dados sensíveis biométricos15 — que são tratados para o reconhecimento facial —, a LGPD é a principal referência no Brasil. Levando-se em conta a importância de conteúdos guardados em determinadas informações e a potencialidade de seu uso servir para fins discriminatórios contra o indivíduo, foi desenvolvida uma categoria especial de informações pessoais: os dados sensíveis (Art. 5º, II, da LGPD), que deverão ser protegidos de forma mais rígida e específica pela lei, havendo rol próprio de bases legais para seu tratamento (Art. 11).
Vale lembrar que tratamentos de dados para fins de segurança pública não serão regidos integralmente pela LGPD (Art. 4º, III), hipótese essa comum para a aplicação de reconhecimento facial. Dispôs a lei que esse tratamento de dados será regido por legislação específica, que deverá prever medidas proporcionais e estritamente necessárias ao atendimento do interesse público, observados o devido processo legal, os princípios gerais de proteção e os direitos do titular previstos na lei de dados.
Assim como o Regulamento europeu de proteção de dados (GDPR), a Lei abriu exceção para algumas atividades estratégicas do Poder Público voltadas à proteção do Estado e dos cidadãos. Cabe, porém, trazer os seguintes questionamentos: Quais entidades públicas poderão requerer a aplicação do Art. 4º em suas atividades? Como poderia ser aplicada a mencionada exceção para respaldar tratamentos de dados advindos de reconhecimento facial realizado pelo Estado? Quais seriam os limites se a mencionada tecnologia fosse fruto – como geralmente ocorre – de uma parceria com agente privado?
A existência de uma vigilância constante e a banalização do uso de tecnologias como a de reconhecimento facial podem trazer severos riscos aos direitos e garantias fundamentais. Como apontado, o reconhecimento facial, no estado da técnica em que se encontra, ainda é cercado de polêmicas, devendo sua utilização ser debatida de forma pública e ampla, levando-se em conta os valores constitucionais e considerações éticas. As manifestações políticas, a interação social, as liberdades básicas e o tratamento igualitário dos indivíduos restarão em xeque caso não sejam traçados parâmetros específicos para a utilização de tal tecnologia, além de salvaguardas à pessoa humana que levem em conta suas vulnerabilidades e características.
Entende-se que, ainda que a LGPD traga normas gerais para a proteção de dados e da privacidade, determinadas tecnologias para serem devidamente implementadas (tanto pelo setor público quanto privado) demandam esforços suplementares. Nesse sentido, será necessário um debate multissetorial aprofundado, preferencialmente fomentado pela Autoridade Nacional de Proteção de Dados, bem como o desenvolvimento de regulação que, ao mesmo tempo que promova a inovação, a tecnologia e novos modelos de negócio, também se atente ao princípio da dignidade da pessoa humana e sua posição de destaque no Estado brasileiro.
*Chiara Spadaccini de Teffé é Doutoranda e Mestre em Direito Civil pela Universidade do Estado do Rio de Janeiro (UERJ). Atualmente, é professora de Direito Civil e de Direito e Tecnologia na faculdade de Direito do IBMEC. Leciona também em cursos de Pós-graduação do CEPED-UERJ, na Pós-graduação da PUC-Rio, na EMERJ, na Pós-graduação do Instituto New Law, no ITS Rio e na Pós-graduação em Advocacia Contratual e Responsabilidade Civil da EBRADI. Membro do conselho executivo da revista eletrônica civilistica.com. Coordenadora da Disciplina "Direito e Internet" da Pós-Graduação do Instituto New Law. Associada ao Instituto Brasileiro de Estudos em Responsabilidade Civil (IBERC). Foi professora substituta de Direito Civil na Universidade Federal do Rio de Janeiro (UFRJ) e pesquisadora do Instituto de Tecnologia e Sociedade do Rio. Advogada e consultora em proteção de dados.
**Elora Raad Fernandes é Doutoranda em Direito Civil pela Universidade do Estado do Rio de Janeiro (UERJ). Mestra em Direito e Inovação pela Universidade Federal de Juiz de Fora (UFJF) e graduada em Direito pela mesma instituição, com período de intercâmbio acadêmico na Universidad de Salamanca (Espanha). Foi professora convidada da Pós-Graduação em Direito e Tecnologia do Instituto New Law, ministrando a disciplina “Proteção de Crianças e Adolescentes na Internet" e faz parte do corpo editorial da Revista de Estudos Empíricos em Direito. É, também, fellow do Deutscher Akademischer Austauschdienst (DAAD).
_______________
1 FERGUSON, Andrew Guthrie. Facial Recognition and the Fourth Amendment. Minnesota Law Review, [s.l.], v. 105, p. 1-71, 2019. No prelo. Disponível em: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3473423. Acesso em: 01 jun. 2020, p. 6.
2 NAKAR, Sharon; GREENBAUM, Dov. Now You See Me: Now You Still Do: facial recognition technology and the growing lack of privacy: Facial Recognition Technology and the Growing Lack of Privacy. Boston University Journal Of Science & Technology Law, Boston, v. 23, n. 1, p. 88-123, 2017, p. 95.
3 JAIN, Anil K.; ROSS, Arun A.; NANDAKUMAR, Karthik. Introduction to Biometrics. New York: Springer, 2011, p. 98.
4 Destaca-se, porém, que a empresa recentemente anunciou uma pausa no uso de seu software de reconhecimento facial para uso policial (WEISE, Karen; SINGER, Natasha. Amazon pauses police use of its facial recognition software. The New York Times. [s.l.]. 10 jun. 2020. Disponível em: https://www.nytimes.com/2020/06/10/technology/amazon-facial-recognition-backlash.html. Acesso em: 12 jun. 2020).
5 “Trata-se de um dos mais prósperos e promissores negócios da economia contemporânea. A China, onde há 176 milhões de câmeras de segurança, detém 46% do faturamento em reconhecimento facial no mundo e tem a ambição de que o setor chegue a US$ 150 bilhões por ano em 2030. Além de seu emprego sistemático por autoridades policiais, a tecnologia é a base do sistema de pagamentos no varejo e dos empréstimos ‘peer to peer’, altamente difundidos no país. Nos Estados Unidos esse mercado cresce 20% ao ano desde 2016” (ABRAMOVAY, Ricardo. Movimento por banir uso de reconhecimento facial cresce no mundo. Folha de São Paulo. [s.l.] 14 dez. 2019. Disponível em: https://www1.folha.uol.com.br/ilustrissima/2019/12/movimento-por-banir-uso-de-reconhecimento-facial-cresce-no-mundo.shtml. Acesso em: 10 jun. 2020).
6 Cf. TEOFILO, Davi; KURTZ, Lahis; PORTO JR, Odélio; VIEIRA, Victor Barbieri Rodrigues. Parecer do IRIS na Ação civil Pública IDEC vs. Via Quatro. Parecer sobre a atividade de detecção facial de usuários da Linha Quatro Amarela de metrô de São Paulo, objeto do processo nº 1090663-42.2018.8.26.0100 da 37ª Vara Cível do Foro Central Cível da Comarca de São Paulo, ação interposta pelo Instituto Brasileiro de Defesa do Consumidor (IDEC) contra a Concessionária da linha 4 do metrô de São Paulo S.A. (ViaQuatro). Setembro de 2019. Belo Horizonte: IRIS, 2019. Disponível em: https://irisbh.com.br/wp-content/uploads/2019/09/Acao-Civil-Publica-IDEC-vs.-ViaQuatro-Parecer-do-IRIS-1.pdf. Acesso em: 14 jun. 2020.
7 Os riscos advindos do uso da tecnologia de reconhecimento facial dependem de vários fatores como a finalidade para qual será utilizada, as bases de dados a que estará vinculada, se o match ocorrerá em tempo real ou posteriormente à captação da imagem etc. Para um aprofundamento destes riscos, principalmente no uso policial da tecnologia, cf. GARVIE, Clare; BEDOYA, Alvaro; FRANKLE, Jonathan. The perpetual line-up: unregulated police face recognition in America. [s.l.]: Georgetown Law - Center on Privacy And Technology, 2016. Disponível em: https://www.perpetuallineup.org. Acesso em: 12 jun. 2020.
8 De plano, percebe-se o quanto isso pode impactar a vida política dos cidadãos, mas, para além disso, “a entrada numa igreja, num bar, o cruzamento dos dados da entrada no bar com aquilo que o indivíduo consumiu (e que foi pago também por reconhecimento facial), a ida a um psiquiatra, a um ginecologista, em suma toda a movimentação referente à vida privada e à própria intimidade das pessoas ganha uma dimensão pública que, ao longo do tempo, acaba por interferir em seus comportamentos, já que elas sabem que estão sob observação” (ABRAMOVAY, Ricardo. Movimento por banir uso de reconhecimento facial cresce no mundo, cit., n.p.).
9 KLAR, Brendan F.; BURGE, Mark J.; KLONTZ, Joshua C.; BRUEGGE, Richard W. Vorder; JAIN, Anil K. Face Recognition Performance: role of demographic information. IEEE Transactions On Information Forensics And Security, [s.l.], v. 7, n. 6, p. 1789-1801, dez. 2012. Disponível em: https://assets.documentcloud.org/documents/2850196/Face-Recognition-Performance-Role-of-Demographic.pdf. Acesso em: 09 maio 2020.
10 Nesse sentido, os vieses ocorrem, principalmente, pelo fato de que esses sistemas de reconhecimento facial são inicialmente desenhados por populações homogêneas de homens brancos (FERGUSON, Andrew Guthrie. Facial Recognition and the Fourth Amendment, cit., p. 42). Um exemplo interessante é um teste realizado pela Associação para as Liberdades Civis dos EUA (ACLU, na sigla em inglês). A associação realizou um “teste com um programa de reconhecimento facial utilizado pela Amazon chamado ‘Rekognition’. Entre deputados e senadores, o sistema ‘identificou’ 28 representantes como criminosos. A ferramenta relacionou as imagens dos políticos a fotos em bancos de dados de pessoas presas. Além do erro no reconhecimento, a associação indicou um funcionamento discriminatório no caso de pessoas negras. Cerca de 40% dos políticos falsamente identificados como criminosos pertenciam a esse segmento, embora ele represente apenas 20% dos membros do Congresso, cujas fotos foram submetidas ao teste” (VALENTE, Jonas. Erros em sistema de reconhecimento facial geram polêmica nos EUA. Agência Brasil. Brasília. 28 jul. 2018. Disponível em: https://agenciabrasil.ebc.com.br/internacional/noticia/2018-07/erros-em-sistema-de-reconhecimento-facial-geram-polemica-nos-eua. Acesso em: 04 jun. 2020).
11 NAKAR, Sharon; GREENBAUM, Dov. Now You See Me: Now You Still Do, cit., p. 119.
12 No caso da IBM, ela afirmou que não irá mais oferecer, desenvolver ou pesquisar a tecnologia de reconhecimento facial, vez que se opõe a seu uso para “mass surveillance, racial profiling, violations of basic human rights and freedoms, or any purpose which is not consistent with our values and Principles of Trust and Transparency” (PETERS, Jay. IBM will no longer offer, develop, or research facial recognition technology. The Verge. [s.l.]. 8 jun. 2020. Disponível em: https://www.theverge.com/2020/6/8/21284683/ibm-no-longer-general-purpose-facial-recognition-analysis-software. Acesso em: 10 jun. 2020, n.p.). Em seguida, a Microsoft se uniu a outros gigantes tecnológicos (como a Amazon) ao anunciar que proibirá a polícia de usar suas ferramentas de reconhecimento facial, devido à ausência de regulamentação governamental. Segundo notícia, o presidente da Microsoft, Brad Smith, teria afirmado que: "Não venderemos tecnologia de reconhecimento facial aos departamentos de polícia dos Estados Unidos até que tenhamos uma lei nacional, baseada nos direitos humanos, que regerá esta tecnologia". (MICROSOFT se une aos rivais e veta uso de reconhecimento facial à polícia. Uol. Washington. 12 jun. 2020. Disponível em: https://www.uol.com.br/tilt/noticias/afp/2020/06/12/microsoft-se-une-aos-rivais-e-veta-uso-de-reconhecimento-facial-a-policia.htm. Acesso em: 14 jun. 2020).
13 Nesse sentido, vale recordar recente posicionamento da ACM U.S. Technology Policy Committee, publicado em de 30 de junho de 2020 - ACM U.S. TECHNOLOGY POLICY COMMITTEE. Statement on principles and prerequisites for the development, evaluation and use of unbiased facial recognition technologies. Washington: Acm U.s. Technology Policy Committee, 2020. Disponível em: https://www.acm.org/binaries/content/assets/public-policy/ustpc-facial-recognition-tech-statement.pdf. Acesso em: 30 jun. 2020.
14 No Brasil, a discussão tem caminhado para a necessidade de um uso “equilibrado” da tecnologia e já há três projetos de lei relativos ao tema em tramitação no Congresso Nacional. Cf. FRANCISCO, Pedro Augusto P.; HUREL, Louise Marie; RIELLI, Mariana Marques. Regulação do reconhecimento facial no setor público: avaliação de experiências internacionais. [s.l.]: Instituto Igarapé + Data Privacy Brasil Research, 2020. Disponível em: https://igarape.org.br/wp-content/uploads/2020/06/2020-06-09-Regulação-do-reconhecimento-facial-no-setor-público.pdf. Acesso em: 30 jun. 2020.
15 A biometria é a ciência de se estabelecer a identidade de alguém, a partir da medição e análise de seus atributos fisiológicos ou comportamentais mensuráveis. No primeiro caso, são exemplos: a impressão digital, o reconhecimento da íris, a identificação por retina, a definição dos traços do rosto, a arcada dentária, a geometria da mão e a altura da pessoa. No segundo, a forma como a pessoa digita, como anda, gestos característicos, voz e dinâmica da assinatura (velocidade do movimento da caneta, acelerações, pressão exercida e inclinação). Dados biométricos oferecem meios de identificar e autenticar indivíduos de maneira confiável e rápida, com base em um conjunto de dados reconhecíveis e verificáveis, que são únicos e específicos sobre seus titulares. O corpo torna-se a senha, meio único e exclusivo de individualização da pessoa.