Humanidades e Novas Tecnologias

Efeitos da assimetria informacional na sociedade e nas relações privadas

Comentários acerca da palestra do professor Kevin LaGrandeur - Destaques sobre a problemática do “hype” em torno da IA

18/10/2024

Este texto é parte de minha participação como moderadora no evento realizado nos dias 17 e 18/10/24 em Fortaleza, VI SIAJUS, “Efeitos da assimetria informacional na sociedade e nas relações privadas”, uma iniciativa da UNI7, AID-IA e Instituto Ethikai, e é parte de minha pesquisa de pós-doutorado na USP/RP, com bolsa FAPESP, onde apresento parte das conclusões de minha pesquisa.

Apesar de um discurso crescente sobre as implicações éticas da IA, como se pode ver no trabalho de Heleen Janssen, Michelle Seng Ah Lee, Jatinder Singh, e nas iniciativas de organismos importantes como a Comissão Europeia e a UNESCO, continua a haver uma necessidade crítica de frameworks na área de “compliance”, por exemplo, que integrem holisticamente os direitos fundamentais e as considerações ambientais. Por isso gostaria de agradecer a contribuição do professor Kevin, pois ele aponta com propriedade acerca da questão do hype da IA, a qual poderia nos desviar dos problemas que já estão presentes, e esta também é uma preocupação constante apontada por diversos pesquisadores, a exemplo do Instituto Alan Turing, do qual também atuo em um dos grupos de pesquisa.

O Hype em torno da temática da IA poderá aumentar os riscos como nos casos citados do uso do chatgpt, utilizado, por exemplo por um advogado para elaborar uma petição judicial sem revisar ou checar os dados, criando jurisprudências inexistentes, o  que se tem denominado como “alucinações”. Daí a importância de uma visão crítica como uma 3a via possível, em oposição a uma visão utópica ou distópica acerca da IA, ambas excessivas e cegas para o outro lado. Por isso destacamos a necessidade de uma abordagem crítica, interdisciplinar e holística, já que se consideramos na origem da IA com a cibernética como sendo uma disciplina holística, tal perspectiva seria a mais apropriada para a análise de cenários complexos. Na pós-modernidade os problemas são inéditos e não há fórmulas e respostas prontas e acabadas. É um “work in progress”. E precisamos ampliar os olhares e colaborações para além da academia, democratizando a discussão e tornando a mesma mais inclusiva, inclusive ampliando o diálogo entre norte e sul, já que a maioria das produções científicas e iniciativas estão centradas ainda no norte global, falando-se em falta de diversidade epistêmica, essencial para se considerar a justiça algorítmica.

Além disso, embora documentos recentes, como “Climate Change & AI: Recommendations for Government Issued” da Global Partnership on AI, tenham começado a reconhecer as dimensões ambientais da IA, os métodos práticos para atenuar esses impactos continuam a ser pouco explorados. É essencial procurar preencher esta lacuna, inovando em áreas onde a investigação anterior está limitada, oferecendo uma abordagem inovadora para garantir que o desenvolvimento da IA é consistente com a dignidade humana, a equidade social e o equilíbrio ecológico, e direitos fundamentais.

Por isso postulamos por ampliar o olhar, indo além do “privacy by design and default” para os direitos fundamentais desde a conceção e “by design”, de modo a considerar o potencial impacto da IA em todos os direitos fundamentais, considerando inclusive o impacto ambiental (Direitos humanos nas estratégias nacionais de IA Fonte: Bradley et al., 2020; “Getting the future right”, Agência da União Europeia). Se olharmos as iniciativas constantes da visão estratégica da Alemanha para a IA, bem como na proposta dos EUA, os projetos de lei no Brasil e no AI ACT da EU, por exemplo, embora salientem em uma direção que beneficia o bem comum, colocando as pessoas em primeiro lugar e discutindo uma abordagem centrada no ser humano (human centric AI), esta abordagem é ainda insuficiente e precisa de ser alargada para uma perspectiva de “IA centrada na vida”, “life centered AI”. Embora a perspectiva “alemã” acerca da ética da IA sublinhe que as questões éticas e jurídicas da IA andam de mãos dadas, é necessário adotar medidas concretas para transformar as agendas e os princípios éticos em medidas eficazes, evitando práticas designadas por “lavagem ética” (Luciano Floridi), e da mesma forma a lavagem no “compliance”. Por isso, é importante antecipar os riscos potenciais, analisando-os agora, em vez de nos concentrarmos num futuro distópico de riscos existenciais, que nos poderia distrair do problema atual. Embora a perspectiva da “IA centrada no ser humano” seja importante, significando o controle humano da tecnologia e o respeito pelos valores humanos, essa perspectiva é insuficiente, pois não considera na maior parte o impacto ambiental e não está alinhada com uma abordagem sustentável a longo prazo (sustentabilidade ambiental, social e econômica), uma vez que não aborda a noção de multidimensionalidade dos DF, nos aspectos individual, coletivo e social. No que diz respeito à abordagem da União Europeia e da Alemanha, apesar de suscitarem preocupações com o ambiente, não há qualquer referência à forma como tal perspectiva seria realizada na prática, nem há maiores considerações acerca da necessária elaboração prévia de uma análise de impacto da IA.

Veja mais no portal
cadastre-se, comente, saiba mais

Colunistas

Paola Cantarini é advogada, pós-graduada em Direito Constitucional, Direitos Humanos e Direito Internacional. Mestre e doutora em Direito pelo Programa de Estudos Pós-graduados em Direito da PUC/SP. Doutora em filosofia do Direito pela Universidade de Salento (Itália), pós-doutorado em Filosofia, Arte e Pensamento Crítico pela European Graduate School , Saas-Fee (Suíça), pós-doutorado no Centro de Estudos Sociais da Universidade de Coimbra (Portugal).

Willis Santiago Guerra professor doutor do Programa de Estudos Pós-Graduados em Direito da PUC/SP. Professor Titular da UNIRIO. Tem experiência na área de Direito e Filosofia, com ênfase em Filosofia do Direito e Direito Constitucional.