As estruturas éticas de Inteligência Artificial (IA) estão disseminadas por diversos setores, desde a OCDE até o Google. Contudo, essas iniciativas, frequentemente não vinculativas, são vistas por críticos como insuficientes enquanto ferramentas efetivas e, em alguns contextos, podem ser classificadas como uma forma de "lavagem ética" (Wagner, 2018). Como contrapartida, muitos atores políticos têm se esforçado para criar estruturas fundamentadas em direitos humanos. Um exemplo é a Declaração de Toronto, que em 2018 foi elaborada por um conjunto de especialistas da sociedade civil e acadêmicos com o intuito de aplicar a legislação e padrões de direitos humanos ao aprendizado de máquina, enfatizando a igualdade e a não discriminação. No entanto, essas alternativas não estão isentas de riscos inerentes e podem, inclusive, perpetuar alguns dos problemas já presentes nas estruturas normativas vigentes. Perspectivas críticas a respeito dos direitos humanos, incluindo as críticas decoloniais, têm estado majoritariamente ausentes dessas discussões. Nesse sentido, argumento em favor de uma abordagem mais cautelosa, mas abrangente, dos direitos humanos no discurso relacionado à IA.
É perceptível a atratividade do Direito Internacional dos Direitos Humanos (IHRL) como uma solução legal e política para os desafios apresentados pela Inteligência Artificial (IA) e tecnologias correlatas. A imposição de padrões de direitos humanos à IA, particularmente no âmbito da ação humanitária, conforme argumentam Pizzi et al. (2020), poderia contribuir para estabelecer linhas de responsabilidade mais precisas para situações problemáticas. Os autores sugerem um conjunto de ferramentas de diligência devidas em direitos humanos que poderiam ser aplicadas, incluindo: Avaliações de Impacto em Direitos Humanos (HRIAs), processos de garantia para parceiros de implementação e engajamento público proativo. Esse argumento ecoa um apelo mais generalizado por estruturas fundamentadas em direitos humanos e respostas regulatórias no contexto da IA, um movimento amplamente impulsionado por advogados críticos, acadêmicos e participantes da sociedade civil.
Ainda que as atuais iniciativas técnicas e éticas apresentem potencial valoroso, nenhuma delas dispõe do "amplo consenso global ou aderência entre os grupos de partes interessadas" que a Direito Internacional dos Direitos Humanos (IHRL) ostenta (DONAHOE; METZGER, 2019, p. 18). Em contraponto, a IHRL parece prover um já estabelecido, abrangente e global conjunto de normas que, conforme sugerido por alguns, poderia até atuar como uma "bússola moral muito desejada para constituir a base de uma estrutura de governança da IA" (SMUHA, 2020). Embora seja reconhecido que não se trata de um remédio universal, os defensores de uma abordagem baseada nos direitos humanos alegam que ela pode fornecer uma estrutura organizacional para o design, desenvolvimento e implantação de sistemas de IA e algoritmos, os quais também podem incorporar outras abordagens, incluindo soluções técnicas (YEUNG; HOWES; POGREBNA, 2020). Diferentemente de outras ferramentas, como as avaliações de impacto algorítmico, a IHRL promete oferecer definições compartilhadas e métodos para aferir danos. Enquanto o conceito de reparação em muitos modelos de responsabilidade atuais tende a ser estreitamente focado na correção de operações tendenciosas ou prejudiciais, a reparação eficaz na IHRL é mais ampla e pode assegurar que os danos não se repitam. Ademais, a IHRL fornece uma estrutura estruturada para mediar e resolver interesses e objetivos conflitantes (MCGREGOR; MURRAY; NG, 2019).
Um desafio crucial para qualquer abordagem fundamentada em direitos humanos é a atribuição de responsabilidades e obrigações. Embora os estados sejam os detentores finais das obrigações de acordo com a IHRL (Direito Internacional dos Direitos Humanos), eles são incumbidos de implementar estruturas que previnam e ofereçam remédios contra violações perpetradas por terceiros. Este aspecto é complementado pelos Princípios Orientadores não vinculativos da ONU acerca de Negócios e Direitos Humanos (BHR). Dentro da pauta do BHR, foram emitidos apelos para que os governos exijam a aplicação mais ampla das Avaliações de Impacto em Direitos Humanos (HRIAs) para IA e tecnologias algorítmicas (UNGA, 2018). Contudo, como ilustra um recente estudo da HRIA do Facebook em Mianmar após o genocídio contra os Rohingya, diversas condições devem ser cumpridas para que as HRIAs sejam estabelecidas como uma ferramenta legítima e eficaz para sistemas de IA e algorítmicos (LATONERO; AGARWAL, 2021). Para oferecer algo além de uma aparência superficial de responsabilidade, essas ferramentas precisam integrar processos mais amplos de diligência devida dos direitos humanos. Elas devem abordar não apenas danos individuais, mas também danos coletivos e cumulativos (cf. MANTELERO, 2016). Fundamentalmente, elas devem analisar as tecnologias como sistemas sociotécnicos. Em outras palavras, uma tarefa importante é construir um conhecimento híbrido, abrangendo aspectos técnicos, sociais e jurídicos (VALVERDE, 2003).
A compreensão desse trabalho antecipatório de direitos humanos como um espaço de produção de conhecimento e, portanto, de poder, suscita uma série de questionamentos. Quais formas de especialização são acolhidas ou desprezadas? Quem pode assumir a posição de 'especialista'? Como conhecimentos vernaculares, populares e tácitos podem ser incorporados? O que a lei dos direitos humanos não consegue perceber? Um problema fundamental para os direitos humanos é que aqueles que detêm poder — ativistas de direitos humanos e especialistas com acesso a espaços políticos — são posicionados como seus únicos representantes e agentes (ALCOFF, 1991; SPIVAK, 2004).
Em um nível mais pragmático, a dependência exagerada de conhecimentos profissionais pode limitar o êxito dos mecanismos regulatórios baseados em direitos humanos de duas formas principais. Assim como nas avaliações de risco tecnológico ou impacto que buscam antecipar consequências não intencionais, a Avaliação de Impacto em Direitos Humanos (HRIA) orientada por especialistas (e o design e desenvolvimento inspirados nos direitos humanos) podem priorizar impactos prejudiciais de curto prazo e mensuráveis, em detrimento de riscos mais sinérgicos, inéditos e difusos aos direitos humanos. Sheila Jasanoff sintetiza essa preocupação, observando que "a imaginação dos especialistas é muitas vezes limitada pela própria natureza de sua expertise" (JASANOFF, 2016, p. 250). Em vez de simplesmente substituir uma visão tecnocrática por outra, devemos questionar como essas iniciativas poderiam reconhecer os interesses e perspectivas de todas as pessoas afetadas pela IA — incluindo aquelas cuja consciência jurídica não comporta o discurso dos direitos humanos. Uma segunda limitação emerge da promulgação de conhecimentos profissionais que são moldados e limitados pelo seu grau de proximidade com a tomada de decisões. Ao questionar a prática da integração dos direitos humanos, Koskenniemi (2010) sugere que há, de fato, muito a ser dito a favor dos direitos humanos (e seus especialistas) se manterem fora dos procedimentos administrativos regulares, atuando como vigilantes e críticos. Incluir especialistas (incluindo cientistas sociais) de forma alguma garante um melhor respeito aos direitos humanos.
Como pudemos observar, autores como Smuha defendem a Legislação Internacional dos Direitos Humanos (IHRL) como um modelo e um olhar útil para o desenvolvimento e a regulamentação da IA devido à certeza moral e ao encerramento político que parece proporcionar. Entretanto, essa busca por consenso e certeza por meio dos direitos humanos tem sido objeto de críticas consideráveis no âmbito da teoria política. Em Reconstructing Human Rights (Reconstruindo os Direitos Humanos), Hoover (2016) defende uma compreensão situada e agonística dos direitos humanos. Segundo essa perspectiva, os direitos humanos são intrinsecamente contestados e são um instrumento para contestar as compreensões existentes de legitimidade política e associação. Em vez de considerá-lo uma condição lamentável a ser superada, uma abordagem agonística acolhe o conflito gerado pelas reivindicações políticas feitas a partir dos direitos humanos. Os direitos humanos podem ser utilizados para fazer novas reivindicações (e plurais) sobre autoridade, incluindo mudanças fundamentais na ordem social. Seus agentes fazem isso por meio de uma forma distinta de contestação, que se baseia na identidade ambígua da "humanidade". Entendidos dessa maneira, os direitos humanos são um ethos universal e pluralista que pode atuar para conferir às pessoas maior controle democrático sobre suas vidas.
Essa perspectiva se alinha com muitas narrativas críticas descoloniais dos direitos humanos. Por exemplo, em seu ensaio "Sobre a Colonialidade dos Direitos Humanos", Nelson Maldonado-Torres fundamenta-se em Césaire e Fanon para identificar uma vertente descolonial no pensamento dos direitos humanos (distinta dos campos eurocentristas e dos assim chamados relativistas culturais), que busca alicerçar o que seja universal na humanidade nas "próprias lutas dos colonizados em afirmação de sua humanidade" (Maldonado-Torres, 2008, p. 132). Divergindo das interpretações predominantes, a genealogia dos direitos humanos não é exclusivamente europeia (Barreto, 2013).
Da mesma forma, em sua reflexão sobre se os direitos humanos podem ser um "projeto emancipatório", Santos (2008) argumenta que tal empreendimento não pode implicar a simples substituição de uma epistemologia do Norte por uma do Sul. Em vez disso, necessitamos transformar os direitos humanos em um projeto cosmopolita insurgente — uma coalizão transnacional de aprendizado mútuo capaz de desmantelar a supressão de saberes que é constitutiva da modernidade ocidental. Para Santos, tais projetos cosmopolitas insurgentes incluem redes igualitárias Norte-Sul de solidariedade e diálogos transculturais sobre a dignidade humana. Isso difere substancialmente do trabalho tecnocrático das Avaliações de Impacto em Direitos Humanos (HRIAs) da IA descrito anteriormente.
Em uma virada materialista, a academia tem questionado as concentrações globais de poder e a dependência da extração de mão-de-obra e recursos naturais que sustentam a Inteligência Artificial (Crawford, 2021). No entanto, essa dinâmica material, provocada pelos avanços nas capacidades e disseminação de tecnologias de IA, também deve ser entrelaçada com as hierarquias da humanidade (Wynter, 2003) e com uma economia política global colonial profundamente desigual. Um desafio iminente para os direitos humanos será até que ponto eles podem ir, não apenas na regulamentação da IA, mas na identificação e desmantelamento dessas estruturas opressivas. Como os direitos humanos podem ser usados, por exemplo, em um movimento global para bloquear as fronteiras extrativistas da IA? Ou para contestar a própria autoridade dos estados de implantar (e regular) a vigilância biométrica racializante e restritiva?
Em vez de impedir a transformação radical e legitimar os atuais arranjos de poder, conforme alguns argumentariam (Badiou, 2001), os direitos humanos - se adotados como um projeto cosmopolita agonístico e insurgente - podem oferecer ferramentas poderosas para obter um controle coletivo e democrático mais amplo sobre as trajetórias da IA. A partir da destas discussões, torna-se evidente que a Inteligência Artificial (IA) se insere em uma complexa trama global que engloba poder, política, economia e direitos humanos. Nesse cenário, o Direito Internacional dos Direitos Humanos (IHRL) surge como uma importante ferramenta legal e política para lidar com as questões emergentes na interseção da IA e direitos humanos. No entanto, é crucial que as práticas regulatórias e os mecanismos de responsabilização sejam baseados em uma compreensão profunda e contextual das tecnologias de IA como sistemas sociotécnicos. Ao mesmo tempo, é preciso reconhecer e enfrentar as limitações inerentes à abordagem baseada nos direitos humanos, particularmente a tendência a privilegiar as perspectivas dos especialistas e a marginalizar outras formas de conhecimento.
Nessa perspectiva, a promoção de um projeto cosmopolita agonístico e insurgente em torno dos direitos humanos pode representar uma via promissora para o futuro. Esse enfoque convida a considerar os direitos humanos não apenas como um conjunto fixo de normas, mas como um campo de luta e contestação que pode dar às pessoas mais controle democrático sobre suas vidas. Nesse sentido, os direitos humanos têm o potencial de serem uma força transformadora, capaz de desafiar as estruturas opressivas existentes e abrir caminho para uma maior justiça e equidade na governança da IA. Assim, o grande desafio será como integrar uma visão pluralista e crítica dos direitos humanos na regulamentação e no desenvolvimento da IA, de modo a garantir um futuro mais justo e inclusivo para todos.
--------------------
ALCOFF, L. The Problem of Speaking for Others. Cultural Critique, v. 20, p. 5–32, 1991. Disponível em: https://doi.org/10.2307/1354221. Acesso em: 24 maio 2023.
BADIOU, A. Ethics: An Essay on the Understanding of Evil. Tradução de P. Hallward. London, New York: Verso, 2001.
BARRETO, J.-M. Human Rights from a Third World Perspective: Critique, History, and International Law. Newcastle upon Tyne, UK: Cambridge Scholars Publishing, 2013.
CRAWFORD, K. Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence. London: Yale University Press, 2021.
DONAHOE, E.; METZGER, M. M. Artificial Intelligence and Human Rights. Journal of Democracy, v. 30, n. 2, p. 115–126, 2019. Disponível em: https://doi.org/10.1353/jod.2019.0029. Acesso em: 24 maio 2023.
HOOVER, J. Reconstructing Human Rights: A Pragmatist and Pluralist Inquiry in Global Ethics. Oxford, United Kingdom: Oxford University Press, 2016.
JASANOFF, S. The Ethics of Invention: Technology and the Human Future. New York: WW Norton & Co, 2016.
KOSKENNIEMI, M. Human Rights Mainstreaming as a Strategy for Institutional Power. Humanity: An International Journal of Human Rights, Humanitarianism, and Development, v. 1, n. 1, p. 47–58, 2010. Disponível em: https://doi.org/10.1353/hum.2010.0003. Acesso em: 24 maio 2023.
LATONERO, M.; AGARWAL, A. Human Rights Impact Assessments for AI: Learning from Facebook’s Failure in Myanmar. Carr Center Discussion Paper Series.
MALDONADO-TORRES, N. On the Coloniality of Human Rights. Revista Crítica de Ciencias Sociales, n. 114, p. 117–136, 2017. Disponível em: https://doi.org/10.4000/rccs.6793. Acesso em: 24 maio 2023.
MANTELERO, A. Personal Data for Decisional Purposes in the Age of Analytics: From an Individual to a Collective Dimension of Data Protection. Computer Law & Security Review, v. 32, n. 2, p. 238–255, 2016. Disponível em: https://doi.org/10.1016/j.clsr.2016.01.014. Acesso em: 24 maio 2023.
MCGREGOR, L.; MURRAY, D.; NG, V. International Human Rights Law as a Framework for Algorithmic Accountability. The International and Comparative Law Quarterly, v. 68, n. 2, p. 309–343, 2019. DOI: 10.1017/S0020589319000046.
PIZZI, M.; ROMANOFF, M.; ENGELHARDT, T. AI for humanitarian action: Human rights and ethics. International Review of the Red Cross, v. 102, p. 145–180, 2020.
SANTOS, B. d. S. Another Knowledge is Possible: Beyond Northern Epistemologies. London: Verso, 2008.
SMUHA, N. A. Beyond a Human Rights-Based Approach to AI Governance: Promise, Pitfalls, Plea. Philosophy & Technology, v. -, n. -, p. -, 2020. DOI: 10.1007/s13347-020-00403-w.
SPIVAK, G. C. Righting Wrongs. The South Atlantic Quarterly, v. 103, n. 2–3, p. 523–581, 2004. DOI: 10.1215/00382876-103-2-3-523.
VALVERDE, M. Law’s dream of a common knowledge. Princeton, N.J.; Oxford: Princeton University Press, 2003.
WAGNER, B. Ethics as an escape from regulation: From “ethics-washing” to ethics-shopping? In: BAYAMLIOLU, E. et al. (Eds.). Being Profiled: Cogitas Ergo Sum. Amsterdam: Amsterdam University Press, 2018. p. 84–89.
WYNTER, S. Unsettling the Coloniality of Being/Power/Truth/Freedom: Towards the Human, After Man, Its Overrepresentation – An Argument. CR (East Lansing, Mich.), v. 3, n. 3, p. 257–337, 2003. DOI: 10.1353/ncr.2004.0015.
YEUNG, K.; HOWES, A.; POGREBNA, G. AI Governance by Human Rights-Centred Design, Deliberation and Oversight: An End to Ethics Washing. In: DUBBER, M. D. et al. (Eds.). The Oxford Handbook of Ethics of AI. 1. ed. Oxford: Oxford University Press.