Quando se fala em questões éticas relacionadas a IA, de uma filosofia da IA, tais temáticas não se limitam, pois, ao estabelecimento de códigos éticos ou de evitar vieses de aplicações específicas de IA, mas de repensarmos as bases epistemológicas para a construção do conhecimento científico em tais searas em novas bases, e com fulcro nos valores do “homo poietico” no sentido de uma filosofia, ética, e de um direito libertos do bino^mio aprisionador sujeito-objeto, mas comprometidos com o múltiplo e o acategórico, no sentido de libertar a diferença, que é o elemento essencial quando se fala em recuperação de diversas características essencialmente humanas, e de modo a reequilibrar a relação humano-algoritmos. Uma leitura e compreensão poéticas, não dialéticas, que levem em conta o não dito, o resto, a heterotopia, superando-se dogmas como o da neutralidade e objetividade da tecnologia (Tese de doutorado em Filosofia, Paola Cantarini, PUCSP, 2021, “O teatro Filosófico de Foucault e o Direito”).
Trata-se então é de pensarmos nas questões de quais os fundamentos e bases epistemológicas e hermenêuticas para a temática da governança de IA e da relação e interação humano-algoritmo, por um lado, respeitando as diferenças, numa perspectiva multicultural e, por outro lado, de como estabelecer os fundamentos e marcos teóricos para a regulamentação harmônica das tecnologias digitais, mas levando as especificidades brasileiras em consideração? Desta forma, procuramos observar e compreender o objeto de estudo em questão de outra perspectiva, de outro ponto de vista, mas, sobretudo, através de uma visão não polarizada, não dualista e não representativa, mas sim holística e inclusiva, a fim de repensar ambivalências e contradições, assumindo estas e não as ocultando em uma idealização falseadora.
Não há muitas propostas científicas, multidisciplinares e brasileiras voltadas à análise e formulação de frameworks relacionados ao design ético e governança da IA, de modo a estabelecer as bases para a criação de um sistema de proteção aos direitos humanos e fundamentais de todas as parcelas da população, que seja proativo, abrangente inclusivo e sistemicamente seguro (proteção sistêmica), envolvendo conceitos como os de Protection by Design, Security by Design, Ethics by Design, Ética Digital Intercultural, tecnodiversidade, cosmoética.
Além da própria filosofia em certo momento desvincular-se da necessidade da busca da verdade como fim último, mesmo porque esta se daria sempre de forma relativa, além do seu caráter de aporia, próprio da filosofia, agora vemos a necessidade também da matemática, e das ciências que se baseiam em tal conhecimento, aceitarem as contradições, as antinomias, próprias de um discurso auto-referencial, como expôs George Spencer-Brown, abandonando paradigmas já superados como o da separação entre sujeito e objeto do conhecimento, substituindo tal separação por uma unidade, ao invés de “ou”, “e”.
Daí se considerar a importância de teorias transclássicas com foco na abordagem holística e não reducionista, típica das ciências modernas, como a cibernética, a semiótica, a teoria geral de sistemas, as teorias gerais da informação e da comunicação e a cibernética de segunda ordem, tal como proposta por H. Von Foerster, ao descrever sistemas cibernéticos dotados de IA que se autorregulam. Ou seja, na base do conhecimento acerca da IA teríamos uma disciplina transclássica, pós-moderna, fugindo-se do antropocentrismo, da oposição sujeito e objeto e olhando para a diferença e o outro.
Tem-se, pois, por superada, outrossim, a compreensão de uma abordagem do conhecimento apenas compreendendo as contribuições da sociedade ocidental e de uma perspectiva eurocêntrica, como ao se afirmar, por exemplo, que no Oriente não se teria uma filosofia própria sendo esta apenas ocidental, já que a cientificidade necessária estaria atrelada à ideia de uma teoria inclusiva e de interdisciplinaridade, o que demandaria a análise e consideração de um maior número possível de abordagens e perspectivas, de forma democrática. Os direitos humanos, por exemplo, não podem mais ser vistos sob uma única ótica, universalista, iguais para todo o gênero humano, em uma perspectiva etnocêntrica, ocidental, mas levando-se em consideração as diversas culturas e gêneros, havendo diversas concepções, portanto, de direitos humanos, já que há uma diversidade cultural e social (comunitaristas e multiculturalistas).
Em sentido complementar, os direitos fundamentais, no plano interno voltam-se para uma natureza multidimensional, reconhecendo-se seu aspecto individual, coletivo e social, característica que fica clara ao pensarmos em um vazamento de dados como equivalente a um dano ambiental, causando danos não apenas individuais, já que relacionados à cidadania e à igualdade material dos tutelados.
Trata-se de uma metodologia diferenciada que poderá trazer alguma luz para uma compreensão não dualista, fechada em uma dialética, mas múltipla, o que seria mais apropriado em se tratando da inteligência artificial. Como bem apontam alguns estudos na área de inteligência artificial, que analisaram conjuntos de propostas de codificações e regulações haveria uma ausência de propostas não eurocêntricas, bem como contradições e não compatibilidade quanto ao conceito de justiça, por exemplo, ou de dignidade humana (“Inteligência Artificial com Princípios: Consenso de Mapeamento” - Berkman Klein Center for Internet & Society da Harvard Law School, FJELD et al., 2020).
Também poderíamos apontar outras fragilidades encontradas em algumas propostas de guidelines para IA, tais como se verifica na elaboração da Comissão Europeia, pois de 52 especialistas envolvidos em sua elaboração 23 eram representantes e empregados de grandes empresas, e apenas 4 dos especialistas possuíam conhecimentos em ética, e nenhum em proteção de dados, faltando pois o requisito da representatividade adequada (subrepresentação), e democrática, pois deverá compreender todos os grupos da sociedade. Outra fragilidade que poderia ser repensada é a de se pensar em direitos fundamentais, sem observância do Constitucionalismo digital, da nova hermenêutica constitucional, do pós-positivismo, adotando-se parâmetros que já não mais fazem sentido, voltados a uma proteção não sistêmica, não proativa, e sem levar em conta direitos coletivos e sociais.
Postula-se, pois por levar-se em consideração nas regulamentações da IA, trazer sempre presente a necessidade de estudos por meio de uma análise multidisciplinar, multidimensional, intercultural já que trata de questões com características polifacetadas, adotando-se uma nova visão hermenêutica e epistemológica, visando à construção de pilares essenciais para o design ético-técnico da IA voltando-se para o "Human and fundamental rights by design”, “beneficial AI”, “AI for good” e “HumanCentered AI”, em uma perspectiva sustentável e não antropocêntrica, portanto, também “planet-centered AI”.
É essencial pois, uma metodologia própria para a realização de Relatório de Impacto de Inteligência Artificial com base na violação de Direitos Humanos e Direitos Fundamentais, fundamental para uma IA de confiança, levando-se em consideração conceitos vinculados ao Sul Global, tais como propõe Boaventura de Souza Santos quando menciona as Epistemologias do Sul, portanto, de outras concepções não eurocêntricas de dignidade humana, justiça e direitos humanos, de forma a propiciar uma perspectiva inclusiva e democrática, por contribuírem sobretudo para uma visão não antropocêntrica, a fim de fortalecer o mercado nacional de IA e novas tecnologias.
Portanto, é essencial olhar para outras perspectivas em termos de “Epistemologias do “Sul”, compreendendo os conceitos de ética digital intercultural, tecnodiversidade e cosmoética, no sentido de superação do monoculturalismo, reconhecendo-se a importância do elemento diferença, da diversidade, não representativa, mas positiva, da diferença. Busca-se a análise do conceito de justiça algoritmica, ao se propor repensar a questão da técnica, e da essência da técnica com base em valores como da cosmoética, tecnodiversidade, como expõe Yuk Hui ("Technodiversity", p. 154); voltadas ao empoderamento do ser humano, verificando-se tais questões em outras bases, fora do dualismo e de oposições inconciliáveis, em uma perspectiva de desenvolvimento da IA inclusiva, democrática e sustentável, além de uma visão antropormófica, o que não compromete a visão de uma IA voltada ao ser humano, o que estaria compreendida em uma abordagem mais ampla, no sentido de uma proposta sustentável.
Por derradeiro, um dos pontos atuais de maior preocupação no tocante as aplicações de IA é sua autonomia, com a atual fase de desenvolvimento, ultrapassando-se o conceito de ser a IA uma simples análise estatística preditiva, já que cada vez mais presente sua autonomia, como podemos observar dos modelos GPT-3, BERT, DALL-E-2 (Stanford INstitute for Human-Centered AI), com o lançamento do bert-like gpt-3 da Openai em 2020. Tais sistemas trazem mais acurácia, necessitam de mais envolvimento econômico e capacidade computacional, e, pois, ocorrendo uma maior concentração das grandes empresas, e por outro lado também poderão trazer maiores riscos de vieses, particularmente preocupante por ser um modelo que poderia servir de base a diversas aplicações. A concentração ainda maior em grandes empresas de tecnologia traz um perigo e desafio ao tentar se equilibrar a proteção de direitos fundamentais acima dos valores patrimoniais, da eficiência e do lucro, já que haverá uma concentração de poderes nas mãos de poucos, pois nem as Universidades, nem os governos poderiam competir com tal capacidade tecnológica, por envolver o desenvolvimento de modelos computacionais de grande porte e alto custo e pela necessidade de utilização de nuvens, para a execução destes modelos, e desta forma talvez as pouquíssimas empresas envolvidas não tenham tantos incentivos para promover uma melhoria em seus resultados em termos não patrimoniais apenas.
De forma simplificada pode-se apontar para a utilização de dados não rotulados, com ajuste fino mínimo, e seria possível à IA, a partir de um input (short prompt) gerar um ensaio completo ou uma imagem completa mesmo sem treinamento específico, ou até mesmo a capacidade de amarrar argumentos de forma coerente ou criar de forma inteiramente original peças de arte. Já foi mencionada também a habilidade de escrever um código de computador pela própria IA.
O risco de viés permanece alto e preocupante por ser um modelo que poderia ser utilizado para várias aplicações de IA, tanto que pesquisadores da Universidade de Stanford estão trabalhando em um bisturi virtual, com o fim de remover neurônios “ruins”.
Fala-se na nova fase da IA – nova Revolução Industrial (27/1/17- Recomendação à Comissão Sobre Disposições de Direito Civil sobre Robótica – Relatório). São os “modelos de fundação” – “foundation models” que estão acelerando o progresso da IA, com habilidades antes não previstas. Se antes já seria possível questionar a falta de autonomia dos sistemas de IA, a exemplo do caso ocorrido em 2017 no Facebook, com o programa desenvolvido pelo seu AI Research Lab (Laboratório de Pesquisa de Inteligência Artificial), já que as inteligências artificiais denominadas de Bob e Alice criaram uma própria linguagem, somente compreendida pelas IAs, decidindo por conta própria como trabalhar com as tarefas que lhes haviam sido indicadas, agora tal característica parece encontrar bem mais fundamentos. Embora ainda não se afirme que tais modelos possam se tornar sencientes, também são apontadas preocupações cada vez mais frequentes com a possibilidade destes novos modelos traçarem seu próprio curso, ou quando for possível, por exemplo a uma IA a construção de outras IAs melhores (“The economista”, Ai’s new Frontier”, junho de 2022).
Qual é o estado da arte atual da filosofia sobre as questões éticas e os impactos sociais causados pela IA? Uma ética construtivista e com base na ecopoiesis?
Para Luciano Floridi a perspectiva do “homo poieticus” envolveria uma ética denominada de “ecopoiesis”, construcionista, no sentido de uma ética orientada de forma a se ter uma perspectiva inclusiva, um ambientalismo inclusivo, através de uma nova aliança entre o natural e o artificial. Ampara-se em uma perspectiva proativa ao invés de reativa, ou seja, deve-se evitar a ocorrência de um dano, sendo uma ética voltada à ação, portanto.
“Ecopoiesis”, no sentido de fugir-se à limitação das éticas da virtude, apesar de uma abordagem também proativa e construcionista, expressa pelo desejo de se moldar a si próprio, mas ainda em um sentido limitador, por se limitarem à uma correta construção do sujeito moral, sendo, pois, egopoiética, pouco refletindo em termos de uma sociopoiética. Em sociedades complexas, contudo, a sociopoiese não é redutível apenas à egopoiese, devendo abranger a preocupação e responsabilização em termos ambientais. “Ecopoiese”, uma ética ecologicamente orientada, uma ética construcionista, como uma forma de luta contra a entropia, sendo o construcionismo é encarnado pelo “homo poieticus” (Floridi 1999a), isto é, uma concepção de ser humano não como explorador da natureza, através de uma nova aliança entre a física e a técnica.
Há uma necessidade urgente, agora mais do que nunca, com os desenvolvimentos devidos à pandemia, de uma compreensão da regulação e implicações éticas da IA, repensando a questão da técnica, de sua essência, a partir de uma perspectiva não polarizada, não apenas conceitual, não representativa, mas holística, plural e inclusiva, e em favor de repensar ambivalências e contradições. Esta seria uma compreensão não polarizada, fora da dialética de Hegel que apaga as peculiaridades dos opostos e os reduz a uma unicidade, mas a favor das diferenças, do simulacro, da cópia imperfeita que foi rejeitada na busca da perfeição platônica do ser. Uma compreensão deste tipo seria alcançada através do trabalho crítico do pensamento sobre si próprio, permitindo-se pensar a sua própria história, libertar o pensamento daquilo que ele pensa silenciosamente e permitir-lhe pensar diferentemente.