Anotações sobre Inteligência Artificial e responsabilidade dos fornecedores: a meta europeia versus tendências algorítmicas.
Tendências ocorrem em qualquer decisão científica ou tecnológica que é baseada em aspectos limitados, como dados, metodologias, valores ou conceitos.
sexta-feira, 19 de novembro de 2021
Atualizado às 09:39
Inteligência Artificial (IA) é uma realidade do mercado. A norma jurídica que melhor demonstra esse entendimento é o Regulamento Europeu para Inteligência Artificial1, cujo preâmbulo exprime o desejo de expansão comercial desta tecnologia, sopesando possíveis impactos nos direitos fundamentais de seus cidadãos.
Sobre o viés econômico, é de se notar que a Comissão Européia, órgão responsável pela elaboração do Regulamento, tenha como meta 25% de toda IA global proveniente da Europa. Isto representará entrada de recursos financeiros na soma de ? 20 bilhões ao ano para o continente.2
O Regulamento é robusto: compõe-se por 85 artigos segmentados em XII títulos e, notadamente, 44 definições essenciais em seu artigo 3º. Destacam-se as acepções "sistemas de IA para reconhecimento de emoções", "sistemas de categorização biométrica" e "sistema de identificação biométrica a distância". Estas três formas de IA são, intrinsicamente, nichos relevantes do mercado europeu.
De forma resumida, temos que um sistema de reconhecimento de emoções é a IA concebida para "identificar ou inferir emoções ou intenções de pessoas singulares com base nos seus dados biométricos"; Sistema de categorização biométrica é "um sistema de IA concebido para classificar pessoas singulares em categorias específicas, tais como sexo, idade, cor do cabelo, cor dos olhos, tatuagens, origem étnica ou orientação sexual ou política"; por sua vez, identificação biométrica à distância é "um sistema de IA concebido para identificar pessoas singulares à distância por meio da comparação dos dados biométricos de uma pessoa com os dados biométricos contidos numa base de dados de referência, sem que o utilizador do sistema de IA saiba antecipadamente se a pessoa em causa estará presente e pode ser identificada", ou seja, reconhecimento facial.
A aplicabilidade destes sistemas é corretamente alvo de amplo debate acadêmico e social, pois são tecnologias de alto impacto social e de repercussão em direitos fundamentais. Por exemplo: quando aplicada na segurança pública, altera-se substancialmente a quantidade de prisões3.
Atento, o Conselho da União Europeia concluiu4 que tal volatilidade, especialmente nos nichos econômicos supramencionados, é proveniente de tendências algorítmicas, ali denominando-as "enviesamentos" ou "vieses" algorítmicos e que devem ser ativamente combatidas. Ensina Yuste5:
"Tendências ocorrem em qualquer decisão científica ou tecnológica que é baseada em aspectos limitados, como dados, metodologias, valores ou conceitos. Torna-se um problema quando seus efeitos não são vigiados, pois, se não cuidadosamente consideradas, as tendências [notadamente as algorítmicas] acabam excluindo, oprimindo ou diminuindo perspectivas, usualmente em detrimento de classes vulneráveis e grupos minoritários." (YUSTE, 2021, p. 154).
É possível entender a tendência algorítmica como uma discriminação ou preconceito. O melhor exemplo é o caso TAY6:
"Em março de 2016, a Microsoft disponibilizou Online um chatbot que era capaz de aprender a partir de conversas a travar um diálogo com terceiros quaisquer. No entanto, o sistema teve que ser desligado no mesmo dia. O que aconteceu? Evidentemente, algumas pessoas acharam graça em travar conversas sobre conteúdo misógino e racista com Tay, o que os permitiu manipular o sistema de modo que externasse ódio contra mulheres e racismo. Após Tay externar seu primeiro evidente ódio racial, não sobrou alternativa à empresa senão retirar o chatbot da rede" (HILGENDORF, 2020, p. 55).
Pesquisas7 apontam que existem diversos pontos em que a tendência algorítmica notadamente influencia o resultado da IA. Destacamos cinco:
- Na coleta de dados: o procedimento utilizado para obtenção dos dados que abastecerão a IA podem ser tendenciosos;
- Na consolidação dos dados: a padronização de dados pode eclodir viés ou tendências;
- Na programação: toda IA é binária e, por tal razão, o programador determinou uma escolha (positiva ou negativa) que proporcione o alcance de um resultado satisfatório, não atentando que a escolha é discriminatória;
- Na metodologia da IA: no caminho percorrido pelo sistema para atingimento de determinado resultado, em algum momento realizou uma escolha que pode ser categorizada como discriminatória;
- Na chancela: o crivo humano de aceitação ou recusa do resultado atingido pela IA é composta por elementos subjetivos, abrindo margem para preconceitos.
Todas devem ser ativamente supervisionadas e combatidas. Consequentemente, a manutenção de uma IA possivelmente enseja mais dispêndios financeiros - principalmente na forma de recursos humanos - do que sua elaboração e implementação.
Quem será responsável por tal combate? O Regulamento Europeu estabelece que será dos fornecedores (artigo 10), ou seja, aqueles quem desenvolvem IA ou coloquem IA no mercado sob o seu próprio nome ou marca.
À luz das normas brasileiras vigentes8, é possível entender que nos nichos de mercado especialmente relevantes, o não combate às tendências importam em responsabilidade objetiva solidária dos fornecedores. Por outro lado, é possível entender que nos demais nichos tratar-se-ia de responsabilidade subjetiva. Não obstante, é de se discutir a aplicabilidade ou não de limites em ambas as hipóteses.
Neste sentido, soma-se ao debate a meta europeia. Uma responsabilidade objetiva possivelmente provocará desincentivo econômico.Já a responsabilidade subjetiva pode não ser socialmente satisfatória, pois possivelmente mais vantajoso ao fornecedor, financeiramente, a assunção do risco à devida plena e integral manutenção da IA.
A abertura de mercado à IA estabelecida no Regulamento Europeu significa a compra desta tecnologia por outros países. O Brasil estará entre eles. Inclusive, em sua exposição de motivos, a proposta legislativa PL 21-A/209 (Marco Legal da IA - aprovada na Câmara dos Deputados e encaminhada para debates no Senado), faz referência ao Regulamento Europeu.
Com isso, temos que a transposição dos termos europeus ao território nacional requer ainda mais debate jurídico. Os operadores do Direito no Brasil devem alcançar pacificidade sobre o combate ativo às tendencias algorítmicas e sua responsabilidade. A norma deverá ser satisfativa à sociedade brasileira enquanto incentiva o mercado, equilíbrio que ainda não atingido.
----------
1- EUROPEIA, Comissão. Regulamento do Parlamento Europeu e do Conselho que estabelece regras harmonizadas em matéria de Inteligência Artificial (Regulamento Inteligência Artificial) e altera determinados atos legislativos da união. Bruxelas. 2021. Disponível aqui. Acesso em 10 de novembro de 2021.
2- EUROPEIA, Comissão. Excelência e confiança na inteligência artificial. 2021. Disponível aqui. Acesso em 11 de novembro de 2021.
3- MAGNO, M. E. da S. P.; BEZERRA, J. S. Vigilância negra: O dispositivo de reconhecimento facial e a disciplinaridade dos corpos. Novos Olhares, [S. l.], v. 9, n. 2, p. 45-52, 2020. DOI: 10.11606/issn.2238-7714.no.2020.165698. Disponível aqui . Acesso em 25 de novembro de 2021.
4- EUROPEU, Conselho. Conclusões da Presidência. A Carta dos Direitos Fundamentais no contexto da inteligência artificial e da transformação digital. Disponível aqui. Acesso em 09 de novembro de 2021.
5- YUSTE, Rafael; GENSER, Jared; HERRMANN, Stephanie. It's Time for Neuro-Rights: New Human Rights for the Age of Neurotechnology. Horizons: Journal of International Relations and Sustainable Development, n. 18, 2021. p. 154-155.
6- HILGENDORF, Eric. Digitalização e direito. Tradutor Orlandino Gleizer. São Paulo, SP: Marcial Pons, 2020. p. 55.
7- BELIZARIO, Fernanda, FALQUEIRO, Bruno. Entre Cidadania e Mercado: Tendências Algorítmicas na Segurança Pública. II Encontro de Tecnologia, Políticas Públicas e Cidadania. Disponível aqui. Acesso em 12 de Novembro de 2021.
8- Referimo-nos especialmente ao Marco Civil da Internet (lei 12.965/14), Lei Geral de Proteção de Dados (lei 13.709/18) e Lei dos programas de computador (lei 9.609/98).
9- BRASIL. Congresso. Câmara dos Deputados. Projeto de Lei 21/2020. Disponível aqui. Acesso em 10/10/2021.