COLUNAS

  1. Home >
  2. Colunas

IA em Movimento

Debate sobre a Inteligência Artificial e questões como privacidade, opacidade e preconceito, interação humano-robô, emprego e algoritmos, ética no desenvolvimento e aplicação dos sistemas de IA.

Ricardo Freitas Silveira e Fabio Rivelli
terça-feira, 19 de julho de 2022

Antifragilidade e os desafios da IA

Qual a relação entre a teoria  da antifragilidade de Nassim Taleb e a Inteligência Artificial? Taleb é um polêmico ensaista, filósofo e matemático, que entende a volatilidade do mercado financeiro como ninguém, porque atuou nele por décadas, com sucesso. É criador do best seller "Cisne Negro", que criou um conceito ligado a um fenômeno raro, imprevisível e com consequências extremas, caso da covid-19 e do 11 de setembro. Também criou um conceito que estende a ideia de resilência corporativa - a antifragilidade. O conceito de antifragilidade¹ vem destronar o conceito arraigado de resiliência do mundo corporativo. Da Física às Ciências Humanas, o conceito da resiliência veio evoluindo para explicar como as pessoas e as organizações conseguem superar situações adversas, de intenso estresse e imprevisibilidade. Para ser resiliente é preciso saber resistir, superar e até vencer situações adversas, como crises climáticas, crimes cibernéticos, ameaças pandêmicas, falha em cadeias de suprimentos e outras. A antifragilidade estende o conceito de resiliência discutindo como as organizações e pessoas podem usar situações adversas, aprender com elas e se recuperarem melhores do que estavam antes. Etimologicamente, a palavra resiliência vem do latim "resilio", que significa recuar, voltar, romper. Inicialmente, foi empregada como um fenômeno da física, que se referia à propriedade de alguns materiais de voltar à forma original, mesmo depois de terem sido submetidos à tensão e à pressão, demonstrando resiliência ou processo de resiliência. Guarda, portanto, a ideia de qualidades como flexibilidade, elasticidade etc. Ao ser um conceito incorporado pelas ciências humanas, a resiliência passou a se referir a indivíduos que conseguiam enfrentar adversidades de forma positiva, enfrentando conflitos de forma construtiva e mantendo o equilíbrio. Já Taleb entende que é possível ir além da resiliência pela transformação e disrupção através do caos. . A antifragilidade trata-se de um conceito para transpor a adversidade, a incerteza e a volatilidade das crises para se transmutar em um profissional ou uma empresa melhor. É como tirar lições do fracasso. Daí a proximidade com a IA - Inteligência Artificial, que nada tem de linear. O processo da machine learning tem grande proximidade como a teoria da antifragilidade porque se abre para inúmeras soluções possíveis. É o caso de se colocar uma máquina contra outra para executar determinado procedimento, na busca de um objetivo.   A etmologia da palavra "frágil" deriva da palavra latina fragilis,  significando pouca resistência, delicadez, sem solidez. Taleb explica como construiu o conceito: "Algumas coisas se beneficiam de choques; prosperam e crescem quando expostos à volatilidade, aleatoriedade, desordem e estressores e aventura amorosa, risco e incerteza. Ainda, apesar da onipresença do fenômeno, não há palavra para o exato oposto de frágil. Vamos chamá-lo de antifrágil. A antifragilidade está além da resiliência ou robustez. O resiliente resiste a choques e continua o mesmo; o antifrágil fica melhor. Esta propriedade está por trás de tudo que mudou com o tempo: evolução, cultura, ideias, revoluções, sistemas políticos, inovação tecnológica, sucesso cultural e econômico, sobrevivência corporativa, boas receitas (digamos, canja de galinha ou bife tártaro com uma gota de conhaque), a ascensão das cidades, culturas, sistemas jurídicos, florestas equatoriais, resistência bacteriana ... até mesmo a nossa existência como espécie neste planeta ". A antifragilidade, segundo Taleb, nos permite lidar com o desconhecido e é cheia de interdependências. Por exemplo, se o número de funcionários de uma determinada fábrica for dobrado, não se obterá o dobro da produção inicial e dois finais de semana na Filadelfia não são melhores do que um único. "Sistemas complexos feitos pelo homem tendem a desenvolver cascatas e cadeias de reações descontroladas que diminuem, até mesmo eliminam, a previsibilidade e causam eventos desproporcionais", explica em sua obra. As respostas que diversas organizações dão em momentos de crise, como a causada pela covid-19, mitigando efeitos negativos e possibilitando a retomada das atividades de forma melhor ao que se tinha antes da crise, denota a antifragilidade de uma organização, ou seja, sua capacidade de se reinventar a despeito de eventos adversos, minimizando impactos inesperados, aprendendo e voltando a operar mais fortes do que antes. "A antifragilidade está além da resiliência ou da robustez. O resiliente resiste aos choques e permanece o mesmo; o antifrágil melhora", ensina Taleb. O conceito é similar ao processo pelo qual passa a estrutura muscular de uma pessoa iniciante na atividade física da musculação. No seu primeiro dia, ela consegue levantar determinado peso, pois seus músculos não estão acostumados, nem com os movimentos, nem com a carga. Ao longo do segundo e terceiro dias, essa pessoa sente muitas dores como consequência do rompimento das fibras musculares ocasionadas pelo exercício. Nesse processo, os músculos se recuperarão fortalecendo sua estrutura para que os mesmos movimentos e cargas não mais ocasionem rompimento de suas fibras. Dessa forma, se essa pessoa estimula frequentemente seus músculos, fornece os nutrientes adequados na janela de tempo correta, dorme bem e tem uma boa saúde, os músculos se recuperam fortalecendo sua estrutura.  O conceito de antifragilidade se aplica à IA enquanto estivermos tratando da tecnologia do aprendizado autorregulado da máquina, sem interferência do fator humano, que poderia intervir nos dados/algoritmos iniciais e gerar falhas na saída. É um sistema próximo à teoria do caos, criada por Edward Lorenz, no qual temos flexibilidade, adaptação, transformação, disrupção e antifragilidade.  Por exemplo, uma empresa de serviços de streaming muito popular no país usa o conceito de chaos monkey para identificar vulnerabilidades e melhoras seus sistemas operacionais. Basicamente, estressa propositalmente seu sistema, verifica onde há pontos fracos e implementa medidas para fortalecer o sistema como um todo. Nesse sentido, os mecanismos de inteligência artificial tem sido usados para continuamente expor fragilidades de sistemas para melhorá-los através do aprendizado gerado pelo caos (ver Canonico et al., 2020). ______ 1 TALEB, Nassim N. Antifragile: Things That Gain from Disorder. New York: Random House, 2012.  2 Fernando Picasso é doutor em administração de empresas pela FGV, professor em gestão da cadeia de suprimentos no Insper, pesquisador nas áreas de risco e resiliência em cadeias de suprimentos e sustentabilidade em cadeias de suprimentos e consultor em gestão da cadeia de suprimentos.
Com as novas tecnologias digitais o presente vira um eterno agora, subtraindo o passado e antecipando o futuro, os rituais e a sua função de coesão social e memorização de valores e culturas se apagam no tempo do eterno retorno do agora, onde tudo que importa é o consumo imediato de mais e mais informação, um signo amorfo, informe e ágil (inform-e-ação), deslocando-se do mundo da vida, e da fundamentação em algum sentido outro para o viver além da superfície linear e da utilização instrumental e técnica. Mais e mais informação, sem um conhecimento e cognição correspondentes que impliquem em questionar o porquê e para quê, sem nos ajudar a um melhor viver e morrer, girando em um vazio existencial, perpetuador da náusea, angústia, de que já falava Sartre. Ao invés do "amor fati", compreendendo a vida e a si mesmo no que se tem de bom e de ruim, mas claro sempre tentando alcançar um ideal maior a nos iluminar, superando-se a infância dos povos de que falava Nietzsche, somos convocados verazmente as mídias sociais e ao metaverso, e a beleza e juventude eterna, onde teríamos a morte perfeita, a morte da morte, apostando ainda em um progresso aliado à pura tecnologia, a qual aliada ao capital, rotaciona ainda com mais velocidade o círculo vicioso de exclusão social e iniquidade, como se a própria tecnologia nos pudesse ensinar a nos tornarmos humanos ou pessoas melhores. A pós-modernidade, com suas razões de forma aperfeiçoadas em uma instância técnico-científica, seguem a linha da modernidade, na sua maior parte, no culto do positivismo e do formalismo cegos, onde a razão entrega-se ao irracional e o método científico converte-se em um fim em si mesmo, como já denunciara a Escola de Frankfurt, e em especial Max Horkheimer e Adorno, separando a razão instrumental e a razão crítica. O método científico, o positivismo, com seu vínculo e culto ao formalismo, utilizando-se do modelo das ciências naturais empíricas e matemáticas, e ao entender as leis da natureza como inexoráveis, e determináveis com um rigor geométrico, e posteriormente apostando no estudo da política e da ética também com base nestes mesmos critérios, como um sistema de causalidades racionais, com rigorosa exatidão ao se pautar por leis da natureza imutáveis, se fundamenta em um ideal irrealizável na prática. Assim, postula-se pela neutralidade e objetividade, em uma supervalorização do racional, do sujeito do conhecimento como instância última e única da verdade e como meio de domínio da natureza, ensejando ainda mais individualismo, antropocentrismo, eurocentrismo e outros ismos, e a perigosa alienação na técnica de que falava Husserl, quando a razão vira puro cálculo e o saber que importa é o produzido maquinalmente, e com vistas ao mercado. Contudo, a própria ciência não mais corresponde aos ideais da mecânica clássica de Isaac Newton, já que desde o início do século XX a teoria da relatividade de Einstein, a física quântica de Max Planck e o princípio da incerteza de Heisemberg quebraram as certezas até então tidas como dogmas irrefutáveis, em uma mentalidade mecanicista, desdogmatizando-se certezas, entre elas, a separação radical entre sujeito e objeto do conhecimento, já que a observação do observador influir no resultado observado, ou seja, o objeto se torna tal a partir do olhar do sujeito, sendo insuficiente apenas o conceituar como representação imprópria da coisa, ao contrário da intuição onde teríamos uma representação própria. Neste sentido também as contribuições de Husserl e a fenomenologia, ao afirmar que não já uma relação pura entre sujeito e objeto, pois é uma relação sempre intencional, reconhecendo-se também o ser humano como um ser de relação, abrindo-se as mônadas e saindo do estado de solipcismo, abrindo-se para o nós. Ao se propor a total separação da política, do direito, da ética e da religião, tendo como precursores Maquiavel e de certa forma o formalismo e individualismo já presente anteriormente em Okcham, um dos iniciadores da via moderna, ao lado de João Scotus, no sentido de busca da neutralidade e objetividade próprias do pensamento científico e positivista, evita-se o sincretismo metodológico em prol da certeza e objetividade, bem como questionamentos e a crítica, reduzindo-se as oportunidades de mudanças do status quo. Contudo, a própria matemática, que embasa tais conhecimentos, revela-se fragmentada, como aliás todo o pensamento fruto desta concepção não universalista, mas especializante da ciência moderna, trabalhando com o mundo ideal, não podendo em sua razão crescente de abstração, esquecer-se do movimento de retorno ao problema concreto, momento necessário da síntese. Há que se ter presente, pois, o divórcio existente entre cálculo e conhecimento, já que a matemática produz uma operação reiterada de signos de signos, apartando-se das evidências sensíveis, em uma crescente abstração e idealização, e sua correspondente pretensão de verdade absoluta, sem sequer assumir tais características e a presença sempre de ideologias por trás de todo ser humano produtor de qualquer tipo de conhecimento que seja. Outrossim, a teoria dos conjuntos formulada para resolver problemas da falta de fundamentação lógica da teoria das funções e do cálculo infinitesimal acaba por se revelar insuficiente, por apresentar resultados paradoxais, antinomias e contradições, apesar de se observar um procedimento lógica e matematicamente correto. Ou seja, como bem demonstraram os teoremas da incompletude de Kurt Gödel, concluindo que a falta de contradição não pode ser provada para a matemática como um todo, e que não se poderia demonstrar por seus próprios meios a falta de contradição do sistema axiomático, demandando o emprego de meios validados fora do sistema (GUERRA FILHO, Willis Santiago. Filosofia: uma introdução", Petrópolis: Editora Daimon, 2009). Portanto, além da própria Filosofia em certo momento desvincular-se da necessidade da busca da verdade como fim último, mesmo porque esta se daria sempre de forma relativa, além do seu caráter de aporia, próprio da filosofia, que não se diferencia dos mitos pela obrigatoriedade de formulação de um pensamento com base na razão, sem desvios, sem contradições. Agora vemos a necessidade também da matemática, e das ciências que se baseiam em tal conhecimento, aceitarem as contradições a antinomias, próprias de um discurso auto-referencial, como expos George Spencer-Brown, abandonando paradigmas já superados como o da separação entre sujeito e objeto do conhecimento, substituindo tal separação por uma unidade, ao invés de "ou", "e". Daí ao se considerar a importância de teorias trans-clássicas com foco na abordagem holística e não reducionista, típica das ciências modernas, como a cibernética, a semiótica, a teoria geral de sistemas, as teorias gerais da informação e da comunicação, e a cibernética de segunda ordem, tal como proposta por H. Von Foerster, ao descrever sistemas cibernéticos dotados de IA que se autorregulam. Ou seja, na base do conhecimento acerca da Inteligência artificial teríamos uma disciplina trans clássica, pós-moderna, fugindo-se do antropocentrismo e olhando para a diferença e o outro. Em sentido complementar tem-se por superada a compreensão de uma abordagem do Direito e da Filosofia apenas compreendendo as contribuições da sociedade ocidental, e uma perspectiva eurocêntrica, como ao se afirmar por exemplo, que no Oriente não se teria uma filosofia própria sendo esta apenas ocidental, já que a cientificidade necessária estaria atrelada a ideia de uma teoria inclusiva, que demandaria a análise e consideração de um maior número possível de abordagens e perspectivas, de forma democrática. Assim, os direitos humanos, por exemplo, não podem mais ser vistos sob uma única ótica, universalista, como sempre os mesmos para todo o gênero humano, em uma perspectiva etnocêntrica, ocidental, mas levando-se em consideração as diversas culturas e gêneros, havendo diversas concepções portanto, de direitos humanos, já que há uma diversidade cultural e social (comunitaristas e multiculturalistas). Em sentido complementar, os direitos fundamentais, no plano interno voltam-se também para uma natureza multidimensional, reconhecendo-se seu aspecto individual, coletivo e social, característica que fica clara ao pensamos em um vazamento de dados como equivalente de um vazamento de petróleo no oceano, causando danos muito além de individuais, já que relacionado à cidadania e à igualdade material dos tutelados. Daí se falar em poluição de dados (BEN-SHAHAR, Omri. Data Pollution, p. 133 e ss.), espécie de "direito ambiental da proteção de dados pessoais". Os danos são considerados coletivos, pois todo o ecossistema de dados é afetado pelas ações poluentes. Em sentido complementar Gunther Teubner, traz a advertência de que não basta uma perspectiva individualista na esfera digital, devendo ser buscada sua dimensão coletivo-institucional (TEUBNER, Gunther. 2017, p. 485-510). Como bem apontam alguns estudos na área de proteção de dados e de inteligência artificial, que analisaram conjuntos de propostas de codificações éticas para tais campos do saber, haveria uma ausência de propostas não eurocêntricas, bem como contradições e não compatibilidade quanto ao conceito de justiça, por exemplo, ou de dignidade humana. Em sentido complementar expõe Lucia Santaella ao afirmar a necessidade de ser reconhecida a atualidade do pensamento de Foucault, para se pensar os novos desafios e oportunidades da utilização das novas tecnologias digitais, em especial da IA, na interface com as humanidades, já que ele é um "divisor de águas" em relação ao estudo do sujeito e das relações de poder que o atravessam (2016, p. 18 e ss.). Propõe Foucault uma dessubjetivação (desantropologização - Favaretto, 2010, p. 5 e ss.), a partir da dissolução nietzschiana do homem, como uma vacina contra o sujeito antropológico e o "sono antropológico", contra o modelo antropocêntrico. A preocupação com a ética na área da inteligência artificial estaria já com seus dias contados, diante da possível ocorre^ncia da "lavagem ética" e da insuficie^ncia dos princi'pios éticos? Ocorreria a lavagem ética quando as empresas acabam desvirtuando a atenção acerca da necessidade também de uma regulação jurídica na área da inteligência artificial, ao afirmarem ser suficiente apenas um código de condutas, o que de certa forma não contribuiria para a resolução dos problemas, já que não há a necessária imparcialidade e coercitividade como no caso da heterroregulação, muitas vezes não passando de uma carta de boas intenções. Diante de tais problemáticas, fala-se no fim da era dos códigos de conduta (Luciano Floridi, "The end of an era: from self-regulation to hard law for the digital industry"). Jess Whittlestone neste sentido aponta para a urgência de se encontrar maneiras de incorporar a ética no desenvolvimento e na aplicação da IA, embora até o momento o catálogo de princípios éticos elaborados por diversos organismos internacionais e empresas tenha se concentrado em princípios gerais, não informando a solução no caso de conflito entre princípios éticos, afirmando a ineficácia dos princípios éticos gerais (TZACHOR, WHITTLESTONE, SUNDARAM, 2020). Corrobora tais assertivas o estudo denominado "Intelige^ncia Artificial com Princípios: Consenso de Mapeamento", elaborado pelo Berkman Klein Center for Internet & Society da Harvard Law School (FJELD et al., 2020), traçando um panorama mundial de princípios éticos da IA, concluindo pela existência de uma grande distância entre teoria e prática na articulação dos conceitos e a sua realização concreta; inexistência de elaboração de princípios orientados para aplicações específicas de IA; divergências quanto a conceitos essenciais como, por exemplo, acerca do que se entende por "justiça" É essencial  em uma regulamentação da inteligência artificial, fundada em uma construção epistemológica, que seja levado em consideração o  conceito de ética digital intercultural, as diversas concepções de dignidade humana e de justiça, olhando-se para as particularidades socioculturais do nosso país, fugindo-se de uma lógica ou viés antropocentrista e eurocêntrico, em atenção, outrossim, às Epistemologia do Sul, considerando-se o sul como categoria epistemológica e não geográfica (Boaventura de Souza Santos). A ética significa em seu sentido grego original "postura", traduzindo em uma postura em relação a` vida, a favor da vida, relaciona-se com a postulação epistemológica em termos de estudo, compreensão e de teoria do direito e da filosofia com fundamento nos valores da "poiesis", e, pois, da poética ( "Teoria Poética do Direito" - Willis S. Guerra Filho, Paola Cantarini), no sentido de abraçar a criatividade, a sensibilidade, a imaginação. Um direito e uma filosofia comprometidos com a alteração da realidade social, com os valores da democracia e da inclusão. Apesar de alguns filósofos apontarem, a exemplo de Heidegger, para o fim da filosofia após Hegel, é essencial a recuperação do pensamento reflexivo, crítico, interdisciplinar, zetético, indo além de um pensamento reprodutivo de uma série de informações, obtidas em escala crescente, pois este não se confunde com compreensão, cognição e reflexão, havendo em certo sentido uma relação antípoda entre informação e comunicação, isto é, quanto mais informação menos comunicação e compreensão, diante da inexistência de tempo e de silêncio para a construção do pensamento próprio e autóctone. É o que observou pioneiramente Vilém Flusser ("Vilém Flusser y la cultura de la imagen. Textos escogidos,«Lengua y realidad», Breno Onetto Muñoz, ed., Valdivia (Chile), Universidad Austral de Chile (UACh), 2016) apontando que as coisas estão desaparecendo dando lugar às informações, bem como Byung-Chul Han ("No- cosas") ao afirmar que estamos em uma fase de transição, da era das coisas para a era das não coisas. Antecipar princípios éticos, que levem em consideração também a diferenca e diversos conceitos de dignidade humana e de justiça, poderá servir para influenciar o design ético da tecnologia, quando valores são designados no design da tecnologia ("ethics by design"). As regulações europeia, canadense e americana já aprovaram princípios para os desenvolvedores de aplicações de IA com vistas ao estabelecimento de "framewoks" de "responsabily-by-design", "privacy-by-design" e "security-by design". Verifica-se, pois que é essencial a construção de um sistema de proteção proativo, abrangente e sistemicamente seguro, uma proteção sistêmica, o que envolveria a proteção desde a concepção tecnológica ("protection by design"), por meio da criação de arquiteturas de decisão adequadas a` proteção com o auxi'lio da concepção e de ferramentas tecnológicas, como forma de se implementar a segurança ("security by design"), falando-se em transparência do design tecnológico (projeto técnico) e dos algoritmos de IA, e não apenas na coleta e tratamento de dados pessoais. É fundamental se estabelecer um framework adequado de check and balances, de ponderação dentro da arquitetura e design tecnológico das aplicações de IA bem como uma avaliação de testagem, voltada a casos concretos, no que se destaca a importância da abordagem "Sandbox approach", como constante do AI Act da Comissão Europeia de 2021, e também prevista, embora de forma genérica e sem maiores especificações no PL 21/20, em seu artigo 7, VII quando cita os ambientes regulatórios experimentais ao lado da análise de impacto regulatório e das autorregulações setoriais. Ao invés de pensamos acerca da essência da técnica objeto de reflexões por parte de Heidegger, em especial ao seu texto de 1949 "A questão da técnica", não em um sentido apenas distópico, como fazendo parte dos dispositivos do biopoder ou do capitalismo de dados, mas, no sentido de refletir acerca da tecnodiversidade e da cosmotécnica, reconhecendo a existência de um pluralismo tecnológico e ontológico, evitando-se a simples oposição dualista entre natureza e técnica, como aponta Yuk Hui, sugerindo que seja repensada a descolonização a partir da perspectiva da tecnopolítica. Tal postulação reconhece e parte da insuficiência de uma visão eurocêntrica e antropocêntrica para se pensar  a relação técnica-humanos, tal como se verifica a exemplo das próprias Declarações Universais dos Direitos Humanos construídas sob uma ótica hegemônica ocidental, não sendo levadas em consideração geralmente as construções das Epistemologias do Sul. Há uma crise quanto aos direitos humanos, como se pode observar do retrocesso que vem ocorrendo em termos de conquista de direitos e preocupações humanitárias. Daí se falar da necessidade de uma nova compreensão e da reinvenção dos Direitos Humanos e pois, da IA, no sentido de integrar a diversidade cultural e as diversas concepções de justiça e de dignidade humana, a exemplo, das noções de "dharma" Hindu, de "umma" islâmica, de "pachamama" ou o "buen vivir" dos povos indi'genas da América Latina, do "ubuntu africano", do "Sumak Kawsay", ou o "Sumak Qamanã", trazendo o respeito aos direitos da natureza, passando do foco dos deveres ao foco aos direitos, e para uma nova concepção de comunidade, a exemplo da Constituição do Equador de 2008, como constitucionalismo transformador, voltada a concepção da tecnologia a favor da vida na Terra de futuras gerações, não apenas, pois "human-centered Ai", mas "planet centered"ou "life-centered", em uma visão cosmoética. Perguntas essenciais que devemos nos fazer por exemplo apontam para reflexões como "será que preciso de IA para determinada aplicação, considerando os riscos associados, alto grau e energia envolvido e custos? Será que seria possível resolver meu problema específico de outra forma? Algum efeito negativo poderia ser de fato mitigado com aplicação da prevenção e instrumentos adequados de compliance? O quanto de eficiência precisaria embutir em tal aplicação, em termos de custos ambientais envolvidos, como níveis de liberação de carbono e agressão ao meio ambiente? Tais propostas refletem e são fundamentadas no respeito à diferença, no respeito pela igualdade na diferença, por meio de um processo político  participativo, na  linha  do  que  se  denomina  de  "constitucionalismo transformador", trazendo a possibilidade de recuperação da cidadania anestesiada ou passiva, transformada em uma cidadania ativa, como exercício de direitos humanos/fundamentais, amplicando-se o acesso das parcelas vulneráveis da população em organismos de checagem de avaliações dentro de organismos independentes que sejam responsáveis por auditorias. Trata-se de uma renovação do pensamento jurídico à luz de uma Teoria (Fundamental) do Direito digital e da inteligência artificial, a fim de se possibilitar um maior respeito aos Direitos Fundamentais/Humanos, voltando-se a uma visão  dinâmica  do  ordenamento  juri'dico,  a  partir  de  uma  consideração  contextualizada,  caso  a  caso, assegurando-se um procedimento isento, de modo a alcançar decisões aptas a equalizar todos os interesses e/ou valores em conflito, trazendo harmonia e uma solução segura e justa, ante as múltiplas possibilidades de solução. Neste sentido a importância do princípio da proporcionalidade e da ponderação no caso de colisões de normas de direitos fundamentais, diante de conflitos nas áreas de proteção de dados e diante de aplicações de inteligência artificial. Tal fase e análise estará obrigatoriamente presente dentro da metodologia de um Relatório de Impacto de Direitos Humanos e Fundamentais de aplicações de IA, assim como se faz presente no Relatório de Impacto de proteção de Dados e na Avaliação do Legítimo Interesse.
terça-feira, 21 de junho de 2022

IA e a rota da seda digital

A inteligência artificial entrou definitivamente para o mundo da política depois que o bilionário e financista George Soros atribuiu à IA e outros novas tecnologias o ônus de viabilizar regimes autoritários e repressivos, constituindo - portanto - uma ameaça efetiva às democracias. No fórum de Davos deste ano, Soros foi bem explícito ao apontar que a IA possibilita a governos autoritários a criação de instrumentos de controle das populações, nunca antes pensados, com a possibilidade do aprendizado das máquinas (machine learn) e que foram colocados em prática e aprimorados durante a pandemia da covid 19. Sem poupar adjetivos, Soros disse com todas as letras que as companhias de tecnologia estão atuando como possíveis facilitadoras do autoritarismo, ao empregar uma sinergia entre projetos corporativos e governamentais. Temos o exemplo de uma das Big techs que está desenvolvendo sistemas de IA com uma universidade militar. Soros, com seu poder de influência, elegeu alguns regimes mais totalitários, com tecnologias de inteligência artificial avançada, como exemplos de riscos para a segurança democrática de todo o planeta. Até que ponto as tecnologias de IA podem controlar os cidadãos? Vimos durante os dois primeiros anos da pandemia da covid-19, que diante da extensão do contágio do vírus e seu alto grau de perigo não se questionou as políticas públicas de controle, nem as tecnologias utilizadas para atingir esse objetivo. Nesse ponto, o mundo mostrou-se dispostos a abrir mão parcialmente dos direitos à privacidade e controle dos dados pessoais para a vigilância propiciada pelas novas tecnologias no sentido de que pudessem ajudar a controlar e combater o novo coronavírus. As tecnologias de inteligência artificial conseguiram desenvolver uma série de atividades fundamentais, além contribuir para o desenvolvimento de vacinas e medicamentos e vigilância proativa de infectados: "Os pesquisadores usam um AI para as tarefas relacionadas ao resultado do paciente, como avaliar a gravidade do covid-19, prever o risco de mortalidade, seus fatores associados e o tempo de internação hospitalar. A IA foi usada para infodemiologia para aumentar a conscientização sobre o uso de água, saneamento e higiene. A técnica de IA mais usada foi uma rede neural convolutiva seguida pela máquina de suporte".¹ A China, citada explicitamente por Soros, utilizou durante a pandemia a plataforma Dingxiangyuan, que recebeu mais de 2,5 bilhões de visitas, que tinha como função propiciar informações sobre a pandemia ao público, mas também empregou plataforma de rastreamento de IA que fazia o gerenciamento do infectados, isolados ou que corriam alto risco.  A população também passou a usar aplicativos de triagem on-line, com informações práticas sobre o que fazer.  A IA pode usar dados de dispositivos inteligência, como celulares, câmeras, relógios, geolocalização etc. Isso possibilitou, por exemplo, que um motorista de táxi chinês positivado para a covid-19 tivesse todos os passageiros rastreados pelo pagamento on-line. De acordo com a política da China, todos os passageiros de trem foram obrigados a registrar um celular pessoal quando compraram passagem para facilitar o rastreamento e possíveis transmissões. O uso de algoritmos sustentados por Inteligência Artificial propicia suporte à governança de dados e mais uma vez traz à tona o desequilíbrio entre Estado e cidadãos. As novas tecnologias estão munindo governos de aparato de controle sobre suas populações nunca vistos, que superam quaisquer sistemas de segurança anteriormente implantados. Quanto mais dados são produzidos, mais a vigilância se amplia e se torna intrusiva. Embora haja críticas, a China está exportando tecnologia de IA para fins de vigilância para mais de 50 países. Na verdade, a China parece estar mais interessada em dominar esse segmento bilionário do mercado de IA, do que com os aspectos políticos do mesmo. Todos sabem que essa avançada tecnologia de vigilância está sendo usada em larga escala internamente, em províncias do Tibete e Xinjiang, para gerenciar populações que possam se rebelar contra o controle político da potência asiática e pode sinalizar o surgimento de algo parecido com uma "era orwelliana", inspirada no livro "1984", onde Orwell consegui prever uma sociedade distópica controlada pelo grande irmão. A China leva vantagem sobre os demais países, porque suas tecnologias podem acessar big datas de mais de um bilhão de pessoas, sem ter de observar o controle de privacidade dos titulares desses dados e isso contribuir para que os algoritmos aprendam mais rápido e cheguem a soluções mais assertivas. É o que vem sendo chamada de "a rota da seda digital", numa clara referência aos investimentos chineses em investimentos em infraestrutura, transporte, energia, tecnologia etc., conectando vários continentes, bem mais ampla que a histórica Rota da Seda, um trajeto de comércio entre Ásia e Europa. Nessa nova Rota da Seda, o governo chinês está construindo em países da Ásia, África e América Latina redes de cidades "seguras" com efetiva vigilância pública com reconhecimento facial, com base em um banco nacional de imagens. Quando chegar a conta, esses países podem - ou não - sofrer pressões para um alinhamento futuro com os chineses, como quer fazer crer Soros. A tese de Soros divide o mundo entre bons e ruins e a tecnologia de IA está além disso, porque pode ser usada por regimes autoritários para controle político doméstico e por governos democráticos, da mesma forma, para gerir ameaças terroristas. Atualmente, os investimentos da maioria dos países têm sido gigantescos nessa tecnologia. Dessa forma, a declaração de Vladimir Putin, o governante russo que começou uma guerra não só contra a Ucrânia - mas contra boa parte do mundo democrático - tem um fundo de verdade:  quem for o líder da tecnologia de IA governará o mundo. Um sistema de IA pode ajudar as forças políticas a detectar ameaças decorrentes de postagens em redes sociais, como pode produzir vídeos e áudios falsos (deepfakes) que minam o julgamento dos cidadãos, porque tornam impossível para nós separarmos o joio do trigo, a verdade da mentira, com manipulação de imagens e sons, e isso pode ser o fiel da balança em momentos importantes, como as eleições presidenciais, principalmente em países democráticos. Temos de ter muito claro que o uso de IA no campo da comunicação pode ser igualmente alarmante, ameaçando os direitos de privacidade dos titulares dos dados e que embute grande impacto político. Nas redes sociais, por exemplo, temos um contingente de "soldados" de bots e trolls para espalhar mensagens que se deseje, sejam fake news ou não, ou até promover campanhas de desinformação. Com diz George Orwell, "quanto mais a sociedade se distancia da verdade, mais ela odeia aqueles que a revelam". _____ 1 Disponível aqui.
Vivemos na era da infoesfera (Pierre Lévy) da vida na web, 4.0, à beira da sétima revolução cognitiva do homo sapiens (Lucia Santaella), por prestes a entramos na fase da internet de tudo, onde tudo e todos estarão conectados. Cada vez mais a IA molda todos os aspectos da vida, impactando na pergunta sobre o que define o ser humano, já que a interação homem-máquina e as experiências na produção de verdadeiros cyborgues já não são mais ficção, falando-se atualmente do neo-humano e do inforgs (Luciano Floridi), com a morte dos objetos, substituídos pela informação, na nossa sociedade datificada. Ingressamos na fase da hiperhistória ocorrendo a depende^ncia de nosso bem estar das tecnologias da informação e comunicação, o que diferencia da fase histórica antecedente, na qual indivíduos apenas se relacionavam com tais tecnologias (Luciano Floridi), sem que estivéssemos ainda possui'dos por o que se pode chamar de "infomania" (Byung-Chul Han). É a fase da sociedade da informação, do capitalismo de informação, da economia de dados ("data-driven economy"), do desaparecimento progressivo das coisas, do real, pois dados e informações as substituem cada vez mais amplamente, pelo virtual dos dados informatizados, digitalizados. A era da 4ª revolução industrial, da indústria 4.0 ou era do silício caracteriza-se, principalmente, pela utilização da inteligência artificial em todos os setores de nossas vidas, com o aumento da intensidade de interconexões técnicas de todas as espécies. A linguagem escrita é substituída pela linguagem ciberoral. Há o extraordinário avanço tecnológico, em particular da inteligência artificial, em todos os setores de nossas vidas, com o aumento da intensidade de interconexões técnicas, e a correspondente aceleracção do tempo, bem como a correlata transformação de nossa subjetividade. A inteligência artificial gera transformações sociais, culturais, éticas, e jurídicas, bem como interfere no conceito de democracia, cidadania e de soberania, relacionando-se intimamente com a proteção de dados. Há um grande impacto da utilização em massa de dados pessoais, donde se ter de atentar para a associação da inteligência artificial com a proteção de dados, sendo essencial a análise acerca da necessária mudança de paradigma quanto à regulamentação nestas áreas, com foco na regulação pela arquitetura técnica e design tecnológico, relacionando-se com as temáticas da risquificacção e coletivização, já que apenas a base legal do consentimento, por exemplo quando se fala de proteção de dados, revelou-se insuficiente e frágil, perdendo, pois sua primazia quando se fala em proteção de direitos fundamentais nesta seara. A IA é uma das mais importantes tecnologias do mundo hoje, impactando todos os setores da sociedade, e em especial o futuro do trabalho e do Direito. Uma das temáticas mais importantes da atualidade relaciona-se com o direito digital, humanismo digital e inteligência artificial, govtech e a nova infraestrutura do futuro, sendo importante a compreensão de tais temas através de uma abordagem interdisciplinar, holística, crítica e pela ótica das humanidades. Trata-se de construirmos uma ponte entre tais universos paralelos, da tecnologia e das humanidades, e aproximarmos a academia, das empresas, e do público em geral, por meio de uma linguagem acessível, mas que não deixe de ser uma análise responsável, científica e aprofundada. Para alguns pesquisadores como Kai-Fu Lee a IA poderá nos ajudar na compreensão de questões fundamentais, filosóficas por excelência, tais como o que nos torna humanos, como queremos viver, quais valores nos são fundamentais como sociedade, e também caberia questionar o que a IA poderá fazer pelos seres humanos, olhando para ambos os lados, da utopia e da disrupção, o lado das oportunidades, e o lado dos desafios. A inclusão e a diversidade andam de mãos dadas como pilares de inovação, sendo estas imprescindíveis para se adaptar aos novos paradigmas e mudança de mindset necessários para a vida 3.0 e o Direito 4.0. Como a IA como a mais disruptiva das tecnologias irá afetar o futuro do trabalho e a forma como nós experienciamos o mundo? Grande parte da população que não tiver condições nem tempo de se adaptar as novas oportunidades de emprego viverá como uma classe considerada inútil, dependendo de economias que podem fornecer uma renda mínima, utilizando-se o tempo do ócio criativo em realidades virtuais que ampliam a gamificação da vida, de modo a substituirmos ansiedade e preocupações com o futuro da própria subsistência com um eterno mundo virtual onde tudo é possível e todos os desejos são realizados a um só click como no caso do metaverso. Bem vindos ao Congresso Futurista do Real. A digitalização da sociedade precipitou-se e agudizou-se de maneira imprevisível, impulsionada pelo evento ainda em andamento da pandemia. O emprego massivo da inteligência artificial (IA) torna os dados o petróleo dos dias atuais, tendo o "big data" invadido praticamente todos os setores econômicos, passando-se a falar cada vez mais em economia de dados ou capitalismo de dados. Para além do saber especializado e próprio da área das exatas, consideramos imprescindível uma arena de diálogo democrático abrangendo a área das humanidades, buscando-se ali uma compreensão alargada, livre de polaridades, como a que contrapõe uma visão idílica, utópica ou apenas disruptiva, com aquela sombria, reativa e distópica. Trata-se, pois do da necessidade da revalorização da ética, tal como se deu em certo sentido com o pós-positivismo, aproximando-se o Direito da moral e reconhecendo as limitações do positivismo e da busca da certeza e objetividades no Direito, sendo esta ética que se torna necessária próxima do seu sentido original grego, presente em outras culturas, tanto antigas como contemporâneas, a saber, o de nos fornecer uma vida boa, por justificada, de conforto interno, contribuindo ao mesmo tempo para a recuperação desta característica da antiga ética grega, etopoética, um saber viver, levando-se em consideração o outro, a diferença, ao contrário de um guia de éticas baseado e construído por partes parciais, seguindo seu próprio conceito de ética, o que seria insuficiente. Por conseguinte, em um segundo momento torna-se imprescindível a transformação de tais princípios éticos em práticas concretas, afastando-se a denominada "lavagem ética", e ao mesmo tempo transformando os mesmos também em princípios jurídicos, de forma a dar efetividade e tornar tais mandamentos vinculantes, e de outro lado não engessar a legislação, bem como prevendo cláusulas gerais, já que permitem uma interpretação mais aberta, e uma maior flexibilidade. Sobretudo, entendemos como imprescindível a recuperação do raciocínio crítico, de modo a possibilitar a obtenção de uma visão ampla dos aspectos teóricos e práticos relacionados aos temas da IA e da proteção de dados, em uma visão holística, interdisciplinar e inclusiva, superando-se uma visão analítica, linear e bipolar, bem como dogmas já tidos como superados, tais como o da neutralidade e objetividade considerados fundamentos das ciências modernas e do pensamento científico. A ética relacionada à IA, portanto, vai muito além de guidelines publicados por grandes empresas, ou entender a IA como um fim utilitário, a favor do progresso, sem se questionar o porquê, e para quem, contribuindo para uma maior exclusão social e concentração de renda, sendo essencial sua abordagem e construção por uma equipe interdisciplinar, imparcial, e com representantes de parcelas vulneráveis da população. Neste sentido a ética é entendida como um saber, enquanto tal, teórico, mas ao mesmo tempo prático, avesso à separação e "purificação" do saber, para ser científico, decorrente do formalismo predominante na modernidade. Portanto, a discussão acerca de temas afetos à IA poderá nos ajudar a repensar e compreender questões essenciais, também para nos orientar no Direito, como o que é o ser humano, como queremos viver, o que nós como sociedade entendemos como valores fundamentais para uma sociedade democrática e inclusiva. Seria possível com a IA alcançarmos uma justiça e decisões judiciais mais imparciais, diante da mencionada característica de neutralidade das tecnologias? Quais os requisitos essenciais de uma justiça algorítmica? Como seria a elaboração de uma "ética 4.0", relacionada com a ética como parte da razão prática, e também poética, para a regulação da IA? Com a rápida aceleração tecnológica, de um lado diversos empregos e funções são substituídas pela Inteligência artificial, a exemplo de funções mentais repetitivas, como no caso de advocacia de massa, com trabalhos de assistentes jurídicos que se limitam a copiar e colar usando modelos de petições já pré-existentes. As atividades repetitivas e rotineiras já são substituídas em alguns escritórios que se utilizam de IA, como no caso do advogado artificial inteligente (ROSS), criado a partir do computador da IBM Watson, desenvolvido por pesquisadores da Universidade de Toronto. Por outro lado, surgem diversas novas áreas e especialidades estratégicas para o trabalho do jurista, devendo haver um prévio empoderamento tecnológico do jurista por meio de estudos específicos a fim de bem desempenhar tais novas funções, com destaque para: head de inovação; empreendedor em Lawtechs/Legaltechs; desenvolvedor de negócios em Lawtechs; gerentes de privacidade; dpos e especialistas em proteção de dados e big data; engenheiro jurídico; especialista em segurança cibernética; compliance pro; gerente de risco jurídico; proteção de ativos digitais; consultor de e-Discovery; analista de dados. Como também aponta Kai-Fu Lee em aproximadamente 15 anos 40 % dos empregos serão substituídos por IA, contudo, as máquinas nunca serão criativas ou capazes de expressar empatia, o que será um diferencial aos profissionais humanos. Corrobora tal informação estudo realizado pela UNB apontando que 30 milhões de postos de trabalho poderão ser substituídos por máquinas e softwares no Brasil até 2026, sobretudo, aqueles tipicamente com funções rotineiras e não cognitivas, ao contrário de ocupações associadas a valores humanos como empatias, cuidado e interpretação subjetiva.  Consultores jurídicos estariam na faixa percentual de 54% de chance de serem substituídos, já que as competências para a função envolveriam práticas facilmente automatizadas, como análise de documentação básica, com exceção da parte de interpretação das normas jurídicas e a utilização da  criatividade. Michael Osborne da Universidade de Oxford aponta em seu artigo científico para o percentual de 47% dos empregos dos EUA que estariam comprometidos no futuro. Com o Direito 4.0 típico da sociedade e do capitalismo de dados, e da revolução digital que os acompanha, e comprovando o impacto as novas tecnologias, em especial da IA (big data) em todos os setores da sociedade, o direito transformar-se a cada dia, aproximando-se das demais tecnologias distuptivas, sendo denominado de direito disruptivo. A tecnologia é considerada um instrumento de transformação dos negócios, sendo que o conhecimento e a disrupção caminham juntos como bem aponta Steven Johnson em seu livro "Wher god ideas come from". Diversas áreas e funções de um departamento jurídico de uma empresa e de um escritório de advocacia estão sendo automatizadas, com algoritmos de IA produzindo petições e decisões judiciais automatizadas, a exemplo do conhecido sistema COMPAS utilizado em alguns estados dos EUA. Os advogados precisam se preocupar cada vez mais com o desenvolvimento, portanto, de capacidades que são tipicamente humanas e que jamais serão substituídas por robôs, tais como a criatividade e o pensamento crítico, os quais são considerados como um diferencial competitivo e de transformação digital. É o que aponta Marta Gabriel aponta justamente enfatizando para a importância do pensamento crítico, o qual aproxima-se de certa forma da proposta de pensamento voltado para uma abordagem zetética muito mais do que apenas dogmática, ou seja, preocupada em pensar de forma interdisciplinar em múltiplas alternativas, mas não se fechar em dogmas como verdades absolutas e únicas respostas possíveis, ainda mais em tempos de contínua aceleração e modificação dos paradigmas. Uma necessária mudança cultural, educacional e de mindset será necessária, portanto. Neste sentido ao invés de uma ciência do Direito estrita, teríamos uma de forma mais completa, como propunha Theodor Viehweg ao se postular pela conjugação da dogmática com a zetética, considerando-se o próprio sistema jurídico como aberto, e não auto-suficiente, dependente da realidade sócio-cultural e com um fim específico, qual seja a concretização da dignidade humana de todos. Para o profissional da Advocacia 4.0 será necessário desenvolver uma habilidade de administrador e estrategista, sendo crescente os desafios humanos no contemporâneo, como ressalva Patrícia Peck: 'Na sociedade digital, o advogado tem de ser um estrategista (PINHEIRO, 2016, p. 563)". Marta Gabriel (Você, eu e os robôs, pequeno manual do mundo digital), por sua vez aponta para a importância do pensamento crítico como um diferencial que jamais será substituído pelas máquinas. Precisamos ser mais perguntadores, pois "o papel de responder é muito melhor desempenhado pelas máquinas. A resposta consolida e é ponto final. Nesse sentido, habilidades criativas, de questionamento e reflexão para fazer as melhores associações tornam-se cada vez mais essenciais". (Ibiden, p. 28) Precisamos ser cocriadores e nos adaptar às novas exigências e desafios que acompanham a transformação digital, envolvendo o constante estudo e atualização, e estudos que envolvam uma visão interdisciplinar, holística e crítica, indo além de abordagens apenas dualistas ou lineares. Para isso o pensamento crítico e a criatividade são essenciais, bem como reaprender a pensar e refletir, diante do ineditismo e da complexidade dos problemas na nossa sociedade atual, reconhecendo-se um caráter emancipatório do direito. A fim de entender e aplicar corretamente as novas ferramentas digitais, bem como fornecer um serviço jurídico de qualidade é essencial o estudo das legislações afetas as novas tecnologias, como big data e inteligência artificial, com destaque para a LGPD, a Estratégia Brasileira de IA e o Marco Legal da IA no Brasil - PL 21-20, analisando sempre o direito comparado, além de temas atuais relacionados com a sociedade da informação, sociedade de dados e sociedade 5.0 (Japão), tais como segurança cibernética, segurança da informação, justiça digital,  legal hacking, smart cities, smart contracts, criptomoedas, legal techs, lawagile (metodologias jurídicas ágeis), legal data science, legal design, litigation 4.0, envolvendo o desenvolvimento de novas habilidades denominadas de soft skils, voltadas para o contexto 4.0. É essencial a análise e discussão acerca dos impactos da crescente utilização da Inteligência Artificial no campo das humanidades, analisando-se os pontos positivos e os negativos, as oportunidades e os desafios, conjugando-se o estudo teo'rico com casos práticos paradigmáticos e jurisprudenciais, bem como analisando-se o Direito comparado, como essencial na busca de uma ana'lise cienti'fica do Direito. Visa-se verificar como seria possível compatibilizar a boa governança digital, e a minimização ou regulação dos riscos por meio do Direito frente aos desafios crescentes da IA, de modo a na~o impossibilitar, por outro lado, a dina^mica da IA quanto à novas oportunidades, inovações e benefícios.
terça-feira, 24 de maio de 2022

IA avança na Justiça e em outras frentes

De forma inédita, o  STF começou a utilizar uma ferramenta de Inteligência Artificial, a RAFA 2030 (Redes Artificiais Focadas Na Agenda 2030) para promover a classificação dos processos judiciais com base nos 17 Objetivos de Desenvolvimento Sustentável (ODS) da Agenda 2030 da ONU, no sentido de poder priorizar e vencer os desafios de um mundo mais sustentável e equânime. Esse é um exemplo bem próximo das infinitas possibilidade que a  IA pode oferecer, contribuindo com o ecossistema judicial, nesse caso voltado a propiciar mais eficiência no cruzamento de ações e os 17 ODS's: erradicação da pobreza, fome zero e agricultura sustentável, saúde e bem-estar, educação de qualidade, igualdade de gênero, água potável e saneamento, energia acessível e limpa, trabalho decente e crescimento econômico, indústria, inovação e infraestrutura, redução das desigualdade, cidade e comunidade sustentáveis, consumo e produção responsáveis, ação contra mudança global do clima, vida na água , vida terrestre, paz, justiça e instituições eficazes, parcerias e meios de implementação. A inteligência artificial (IA) constitui a soma da utilização da grande massa de informações (big data) e o conjunto de instruções para realizar uma tarefa, produzindo um resultado final, tudo em uma equação matemática, o algoritmo. A versão singular da máquina ainda está longe de existir, é a máquina dos padrões de escolha absolutamente autônomos, os padrões assinalados por Yuval Noah Harari "Sapiens - A Brief History of Humankind", adaptados para reconhecer a mesma capacidade que o ser humano tem para processar suas intuições, o que levaria à catástrofe: "a revolução tecnológica pode em breve excluir bilhões de humanos do mercado de trabalho e criar uma nova e enorme classe sem utilidade, levando a convulsões sociais e políticas com as quais nenhuma ideologia existente está preparada para lidar." Contudo, o emprego da IA parece não ter limites. Na Índia, vem sendo utilizada uma ferramenta de IA, chamada Supace (Supreme Court Portal for Assistance in Court's Efficiency) que tem várias funções, inclusive auxiliar na tradução  de julgamentos para idiomas regionais, o que aumenta o acesso à justiça, tornando o trabalho do tribunal mais rápido e eficiente. Contudo, paralelamente ao incremento do uso de IA, crescem as preocupações com a proteção de dados e privacidade, além da garantia dos direitos humanos. Na Estônia, para eliminar o acervo de processos, já  está em operação o juiz de IA  para julgar disputas de pequenas causas, abaixo de 7 mil euros. Igualmente no Canadá, a IA tem sido empregada para resolver disputas de baixo valor. Há muita polêmica em torno deste uso, mas torna-se igualmente  importante testar a IA para ver se os resultados refletem justiça e transparência no andamento processual, além de reduzir custos e tempo dos processos.  Em outros setores, a IA está igualmente ganhando diferentes usos. A empresa Ghostrobotics, por exemplo, desenvolveu o cão robô para uso militar, semelhante a um cachorro, tem quatro "patas", pode andar em terrenos sinuosos, subir e descer, monitorar incansavelmente regiões de risco, desativar bombas e atuar em substituição ao soldado em diversas tarefas, evitando colocar em risco o militar. Os drones possibilitam também o monitoramento de áreas de difícil acesso e evitam riscos, são utilizados em dezenas de tarefas inclusive de transporte, mas erros aconteceram, em 2021 um show de luzes na China com drones teve problemas técnicos e dezenas caíram nos espectadores; os Estados Unidos admitiram um ataque com drones em local errado matando 10 civis no Afeganistão. Passando para o uso de algoritmos de geolocalização, a Predpol promete revolucionar a segurança das regiões contratadas pela empresa, com base nas ocorrências policiais o algoritmo prevê a incidência do próximo crime: o que; onde e quando acontecerá, simplesmente pela estatística avançada na análise preditiva. O uso das ferramentas de biometria é controverso e precisa ser analisado à luz da Lei Geral de Proteção de Dados, mas foi utilizado em Moscou para pagamento de metrô, o Face Pay, lançado em 2021.   São Paulo prevê a instalação de câmeras de reconhecimento facial para auxiliar na redução da criminalidade. Um procurado por homicídio foi reconhecido por uma câmera de reconhecimento facial no Carnaval de Salvador, em 2019. Isso é somente o começo porque a máquina pode aprender com a experiência à medida que recebe mais dados, o que também ajuda a reduzir os vieses. A linguagem corporal padrão de alguém que comete um delito pode ser identificada através de uma nova tecnologia japonesa de câmeras que detectam os movimentos e o algoritmo avalia se haverá um delito, é a análise preditiva em ação. Em 2018, uma reportagem do The Economist, em parceria com O Estado de S. Paulo, publicou uma matéria dizendo que computadores têm sido utilizados para ajudar em decisões judiciais nos Estados Unidos, porém, o que dizer do caso do cidadão afro-americano Robert Julian-Borchak Williams, detido, preso e acusado injustamente por um sistema de algoritmo de inteligência artificial. No Jornal El País, a manchete, "os robôs sexuais já estão aqui. Deveria haver leis que os regulem?", são os sexbots, como ficam a ética e a privacidade diante de um robô com formas infantis? Em contrapartida aos exemplos citados , todos aptos a uma sabatina de análises técnicas envolvendo legislação, ética e privacidade, a máquina traz benefícios em diversos setores, inclusive os citados além da educação; medicina; diagnóstico; gestão; segurança entre outros, o relógio mais recente da Apple salvou a vida de um americano ao detectar uma embolia pulmonar. Diante do avanço exponencial da tecnologia e suas aplicações para que se possa evitar os erros e utilizar de maneira correta, o desafio é a regulamentação. Diversas iniciativas vêm sendo aplicadas para prevenir e evitar que os mecanismos de decisão adotem padrões incorretos, até mesmo discriminatórios. Os programadores do Reino Unido têm o código de ética para o desenvolvimento prevendo em poucas palavras que se evite a predição incorreta incluindo um humano sempre que possível; o monitoramento das ferramentas deve permitir a compreensão do que está sendo decidido e, por fim, deve permitir a transparência nas decisões. A Microsoft também publicou os princípios da IA contendo justiça; confiabilidade e segurança; privacidade; inclusão; transparência e responsabilidade. A Comunidade Europeia publicou as diretrizes para uma IA de confiança "Ethics Guidelines for Thustworthu AI", basicamente prevendo a intervenção e supervisão humana; robustez e segurança e a privacidade e governança de dados. O Senado Americano tem como base o manual de ética em IA para aplicação a todos os projetos de IA não aceitando modelos sem explicação e que sejam compreendidos quais dados são utilizados. Aqui, no Brasil, um passo foi dado, além da Lei Geral de Proteção de Dados, com  o Marco Legal da IA, estabelecendo a criação do relatório de impacto de IA e seus agentes, projeto inspirado na Recomendação sobre Inteligência Artificial da Organização dos Estados para o Desenvolvimento Econômico (OCDE). A  IA pode ser usada em benefício da sociedade, seguindo os padrões ESG (melhores práticas ambientais, sociais e de governança) e em busca do atingimento das metas da Agenda 2030 da ONU,  através da governança focada nas pessoas e na sustentabilidade em busca da prosperidade para todo o mundo.
terça-feira, 3 de maio de 2022

Desenvolvimento da IA e interesse público

Há muita polêmica acerca da  proposta pioneira da Comissão Europeia para regular a Inteligência Artificial (AI Act)¹, uma vez que o viés escolhido foi da aplicação dos riscos, consolidado desde o primeiro estudo nesse sentido, contido nas sugestões prévias do White Paper de 2020. A crítica está centrada no desequilíbrio dessa balança de regulação, que coloca em um prato os direitos fundamentais dos usuários e a  proteção de seus dados pessoais e no outro, os interesses do Poder Públicos e de empresas. A avaliação de riscos da IA aos direitos humanos na esfera pública deveria ter um peso maior. A utilização dos sistemas de IA nos serviços públicos e processos administrativos se justifica no sentido de serem empregados como instrumentos para facilitar a tomada de decisões de gestores públicos e  para agilizar os serviços prestados aos cidadãos, observando seus direitos fundamentais. Além do Judiciário brasileiro, uma série de órgãos públicos tem sua inteligência artificial, como a Dataprev, responsável pelo processamento de todos os dados pessoais e sociais da população brasileira, que utiliza o Isaac, voltado a agilizar a análise de processos do Instituto Nacional do Seguro Social (INSS) . A Datraprev, a exemplo de outras empresas públicas, vem ampliando o desenvolvimento da  IA em outros serviços. A tecnologia de IA vem se desenvolvendo em todas as áreas do conhecimento humano e a proteção legal terá dificuldade em acompanhar o ritmo de expansão dessa tecnologia e seus possíveis impactos sociais, éticos e jurídicos. A  Resolução 332/20 do Conselho Nacional de Justiça³, por exemplo,  traz como conceito de inteligência artificial , um  "conjunto de dados e algoritmos computacionais, concebidos a partir de modelos matemáticos, cujo objetivo é oferecer resultados inteligentes, associados ou comparáveis a determinados aspectos do pensamento, do saber ou da atividade humana". Podemos, também, sintetizar o conceito de  IA como sendo a soma da utilização de grande massa de informações (big data) e o conjunto de instruções para realizar uma tarefa, produzindo um resultado, tudo em uma equação matemática, o algoritmo. No Brasil, o Marco Legal do Desenvolvimento da Inteligência Artificial (PL 21/20)² foi aprovado no ano passado e, a despeito de ser considerado generalista, trouxe segurança jurídica ao consolidar fundamentos, objetivos e princípios gerais  para o uso da IA no país.  No art.12, o Marco Regulatório aponta que que o Poder Público deve facilitar a adoção de sistema de IA à  Administração pública e na prestação de serviços públicos. O uso da IA na esfera pública está diretamente imbricada na observância dos direitos fundamentais dos cidadãos. No capítulo sobre Direitos Fundamentais da proposta  do Regulamento do Parlamento Europeu  sobre IA  explicita essa preocupação:" A utilização da IA com as suas características específicas (por exemplo, opacidade, complexidade, dependência de dados, comportamento autónomo) pode afetar negativamente vários direitos fundamentais consagrados na Carta dos Direitos Fundamentais da UE . A presente proposta visa assegurar um elevado nível de proteção desses direitos fundamentais e visa abordar várias fontes de riscos através de uma abordagem baseada no risco claramente definida". A mitigação de riscos é importante, mas vem sendo questionada enquanto cerne  da nova regulamentação europeia,  principalmente diante das decisões automatizadas dos sistemas de IA. No Brasil, embora a  Lei Geral de Proteção de Dados (lei 13.709/18), não discipline o uso da IA, traz no art.20 os parâmetros de seu uso: "O titular dos dados tem direito a solicitar a revisão de decisões tomadas unicamente com base em tratamento automatizado de dados pessoais que afetem seus interesses, incluídas as decisões destinadas a definir o seu perfil pessoal, profissional, de consumo e de crédito ou os aspectos de sua personalidade". Dentre os principais riscos do desenvolvimento da IA está a violação ao direito à privacidade e proteção de dados, especialmente no caso de eleições, com o uso de robôs (social media bots) que  conseguem interagir com outros usuários  e influenciar nos principais debates que podem decidir um pleito presencial, sem falar das chamadas "bolhas ideológicas" por meio das quais os usuários só entraram em contato com publicações que expressem as opiniões que tenham similaridades às suas. Esses tipos manipulações constituem  um risco paras as eleições livres e a democracia O ideal da regulação vem sendo a  defesa dos direitos fundamentais. Um dos desafios dessa perspectiva está no projeto polêmico , chamado iBorderCtrl, que emprega IA para analisar microexpressões de pessoas nas fronteiras europeias, buscando detectar se o indivíduo abordado está mentindo  ou não ao responder a  um script definido. É a nova versão do detector de mentiras , que usa tecnologia avançada de IA, mas é um projeto considerado de pouca transparência, que vem sendo questionado. Outro exemplo de sistema de IA considerado de risco e que visa à vigilância em massa é o SyRI do  governo holandês. Este sistema  de investigação algorítmica detecta suspeitas de fraude em benefícios, subsídios ou impostos, sendo que os cidadãos não são avisados do procedimento, mesmo tendo seus dados sensíveis tratados, uma vez que  envolvem informações relativas a trabalho, propriedade, dívidas, aposentadoria isenções etc. Falta, portanto, transparência , o que demandou uma campanha pública chamada " Suspeito desde o início".  Uma das funções SyRI  mais questionadas era busca detectar fraudes nos subsídios  de aluguel social por meio da mensuração do uso de água corrente.  Quando muito baixo, depreende-se que o beneficiado  não estaria mais naquele endereço , mas continuaria usufruindo dos benefícios de forma fraudulenta. Contudo, outros fatores podem explicar esse baixo consumo, como reaproveitamento da água da chuva. Essa ação atingia prioritariamente bairros de baixa renda, o que já constitui uma discriminação social, embora a justificativa do poder público tenha sido de melhorar a qualidade de vida dessa população. O SyRI foi suspenso pelo Tribunal holandês de Haia por violar o art. 8 da Convenção Europeia de Direitos Humanos , que trata dos sistemas de IA de alto risco, que estabelece a observância de quatro pontos: identificação e análise dos riscos conhecidos e previsíveis, avaliação de acordo com a finalidade a que se destina o sistema de IA, avaliação de outros riscos com base na análise de dados recolhidos no sistema e adoção de medidas de gestão de risco, com base nos efeitos e possíveis interações. No uso da tecnologia de IA na área pública, um ponto fundamental é aplicar uma legislação transparente , assegurando a privacidade dos dados pessoais dos cidadãos e que, ao mesmo tempo, responda se  observa os  marcos de direitos humanos  que propiciam as salvaguardas necessárias. A questão da vigilância em massa  estatal com uso da IA teve no Reino Unido um exemplo bem claro , com a criação em  2016 da Lei de Poderes de Investigação, que admitia a coleta de dados em massa, que vieram a público pela denúncia de Edward Snowden, que apresentou documentos sobre a agência de inteligência britânica GCHQ, que utiliza programa de espionagem para armazenamento de dados em massa de todo tráfego da internet e repositório de mis de 1 trilhão de eventos (e-mails, mensagens instantâneas, mídia social etc.). Contudo, em 2018, o Tribunal Europeu de Direitos Humanos decidiu que  esse programa de interceptação de massa violava a Convenção Europeia de Direito Humanos e é considerado o primeiro julgamento sobre a matéria que colocou um freio ético no uso da IA na esfera pública. No Regulamento do Parlamento Europeu , o poder público e empresa parceiras  também não estarão escudados pela caixa preta da "segurança nacional" para  evitar comunicar incidentes no âmbito da IA.  Segundo o art. 62, os fornecedores de sistemas de IA de alto risco  ( identificação .biométrica, gerenciamento e operação de infraestrutura crítica; emprego, gestão de obras e acesso ao trabalho autônomo; acesso a serviços e benefícios públicos; migração, asilo e gestão de controle de fronteiras; administração da justiça etc.) devem  comunicar as autoridades de fiscalização qualquer incidente ou avaria  que venha a violar direitos fundamentais. A notificação deve ser feita tão logo se estabeleça o  nexo de causalidade entre o sistema de IA e o incidente ou avaria. Os arts 22  e 23 do Regulamento enfatizam o dever de informação e cooperação com as autoridades. Como já afirmava o Conselho de Direitos Humano da ONU em 2016, " os direitos humanos que as pessoas têm off-line devem também ser protegidos on-line".4 _____________ 1 Proposta do Regulamento do Parlamento Europeu sobre IA. Disponível aqui 2 Disponível aqui. 3 Disponível aqui. 4 Disponível aqui.
Introdução Vivemos na sociedade da informação, sociedade de dados e sociedade 5.0 (Japão), atrelada aos conceitos de pós-humanismo e de transumanismo, falando-se ainda em "virada do não humano", um conceito macroscópico segundo Grusin, trazendo repercussões sociais de alta magnitude1, com foco no descentramento do humano da biosfera, para se tornar verdadeira força geológica, a provocar a era do antropoceno. Surgem ao mesmo tempo novos desafios e oportunidades com as novas tecnologias na interface com as humanidades, em especial com a utilização da chamada inteligência artificial (IA), sendo certo que as diretrizes éticas devem ir de mãos dadas com as questões legais, no âmbito da governança de algoritmos. O Projeto de Lei 21/20 que cria o marco legal do desenvolvimento e uso da Inteligência Artificial (IA) é uma importante iniciativa de regulamentação da IA no Brasil, ao lado da Estratégia Brasileira de IA no Brasil, Instituída pela Portaria MCTI nº 4.617, de 6 de abril de 2021, apesar de algumas falhas e omissões, imprecisões técnicas, ausência de obrigações substantivas e processuais, ausência de parâmetros mínimos de procedimentalização e previsão de instrumentos de governança algorítmica,  em especial se comparamos com as regulamentações internacionais. Há também uma falha a ser destacada no tocante ao processo democrático de deliberação, já que houve um curto período de tempo para contribuições por parte da sociedade civil, ao contrário, por exemplo, do Marco Civil da Internet, lei 12 965/2014, o qual contou com um período bem mais extenso de discussão democrática e inclusiva. Um amplo período de debate envolvendo diversos grupos da sociedade civil é essencial e possui relação com o conceito de ética digital intercultural, trazendo ao diálogo os grupos vulneráveis e todos os setores da sociedade. Justamente ética digital intercultural e o estabelecimento de frameworks concretos para tradução de princípios éticos abstratos em práticas concretas são pontos a serem desenvolvidos, devendo contar com a contribuição de uma equipe interdisciplinar e multistakeholder, e, sobretudo, independente. O Projeto de Lei 21/20 que cria o Marco Legal da IA no Brasil é uma importante iniciativa no sentido de regulamentação da IA, já que cada vez mais se fala no fim da era dos códigos de conduta (autorregulação), como bem aponta Luciano Floridi, no recente artigo "The end of an era: from self-regulation to hard law for the digital industry".2 Isto porque a autorregulação pelas empresas, não seria eficaz nem tampouco contribuiria para o aspecto da confiança, já que muitas vezes tal iniciativa colide com a busca de fins públicos e com a proteção de direitos fundamentais e humanos, voltando-se primordialmente para os valores de mercado, não sendo iniciativas pautadas na transparência e imparcialidade. Em muitos casos há aqui uma concepção proprietária dos diretos envolvidos, a busca da inovação e de valores econômicos acima de outros valores democráticos, envolvendo a elaboração de conteúdo unilateral e seletivo em termos de interesses, na linha de uma análise econômica do Direito, voltada para eficiência do mercado. Clique aqui e confira a coluna na íntegra. __________ 1 Grusin, Richard. Introduction. In: Grusin, Richard (org). The nonhuman turn. Minneapolis, mn: University of Minnesota Press, 2015. p. vii-xxxi, Grusin, 2015, Conferência realizada em 2012, "A Virada do Não Humano nos Estudos do Século XXI", Center for 21st Century Studies, Universidade de Wisconsin-Milwaukee. 2 Floridi, Luciano, The end of an era: from self-regulation to hard law for the digital industry (November 9, 2021). Available at SSRN.
terça-feira, 5 de abril de 2022

Metaverso e gamificação da vida

De que forma o surgimento de novas formas de representação do mundo, no sentido de um empoderamento através e por meio das tecnologias, não apenas vendo o lado negativo e os problemas, mas alternando o foco no sentido de encontrar uma solução para os problemas que as novas tecnologias nos colocam em conjunto com a crise ambiental e de sentido, podem contribuir para uma multiplicidade de alternativas? Como expõe Yuk Hui ("Technodiversity", Ubu Editora, 2020, p. 154), o reconhecimento da existência da cosmotécnica, da diversidade técnica, podem ajudar no empoderamento ao invés do enfraquecimento humano? Ou tal visão seria utópica demais, ao se considerar que qualquer modelo e espécie tecnológica estariam aprisionadas dentro do sistema poder-saber, envolvidas nas redes de poder, restando muito pouco espaço para a resistência, mesmo sabendo que onde há poder também há resistência (Deleuze)? A realidade virtual (XR) seria como sonhar com os olhos abertos, gerando uma intensa experiência que seria absorvida e experienciada como "presença"? (Kai-Fu Lee. "AI 2041". Ebbok, Apple). Tais questões são inseparáveis, a ética da IA e a dinâmica do poder, já que o poder "providencia os meios para influenciar quais casos são relevantes, quais problemas são prioritários e a quem as ferramentas, os produtos e os serviços são feitos para servir" (JOHNSON, Khari. AI ethics is all about power. Em https://venturebeat.com/2020/02/21/google-launches-tensorflow-library-for-optimizing-fairness-constraints/, 2019. Acesso: 10/08/2021). Como o resistir poderá perdurar no tempo e se multiplicar permanecendo resistência e não ser aglutinada no sistema dominante, retroalimentando o sistema, virando também um produto de consumo? O dobrar, a superdobra no sentido de se pensar o lado de fora, uma nova linha de fuga, a experiência do fora como uma forma de resistência, trazendo a possibilidade de novos devires. Uma reconversão do pensamento (metanoia) é do que se trata, no sentido de se escapar do modo de ser do discurso da representação, e trazer a possibilidade de novas subjetividades. Buscar a experiência do fora no sentido de colocar o sujeito como objeto para si mesmo, projetado para fora de si, e com isso conseguir voltar a si mesmo, através de um esquecimento. Para Foucault, a resistência é uma ação política revolucionária, capaz de questionar ou pelo menos refletir e ter consciência sobre os regimes de verdade e dispositivos de poder, sendo o artista considerado como um intercessor. Intercessor, nos dizeres de Gilles Deleuze, é o movimento, a força da alavanca, ao contrário da força da onda, que logo se esvai. O intercessor é aquela figura (na filosofia, nas artes, nas ciências) que, mediante o que pensa, o que cria ou inventa, instala, no cenário da vida, um distúrbio, à altura de forças um passo à frente. Em outros termos, o intercessor obriga, por sua intervenção, a romper a cômoda realidade regida pela lógica, instaurando um terceiro modo de ver e de ler a trama dos acontecimentos, o enredo da vida. Quais são os fundamentos e bases epistemológicas e hermenêuticas para pensar tais questões, por um lado, respeitando as diferenças, numa perspectiva multicultural e, por outro lado, como estabelecer os fundamentos e marcos teóricos para a regulamentação harmônica das tecnologias digitais em nível internacional? Quais são as possíveis bases epistemológicas e hermenêuticas para se repensar a relação da técnica com os humanos? Desta forma, procuramos observar e compreender o objeto de estudo em questão de outra perspectiva, de outro ponto de vista, mas, sobretudo, através de uma visão não polarizada, não dualista e não representativa, mas sim holística e inclusiva, a fim de repensar ambivalências e contradições. A tecnologia muda a cultura, o ser humano e o conceito de ser humano, e com isso o conceito do que significa continuar sendo humano. Vivemos em uma condição pós-moderna, em uma sociedade pós-moderna, na pós-modernidade, na sociedade da informação ou sociedade informacional, sociedade de dados, e passamos da fase da histórica à fase hiperhistórica, (FLORIDI, Luciano. "The Logic of Information: A Theory of Philosophy Philosophy as Conceptual Design", Oxford: OUP, 2019). Na fase da hiper-história, o nosso bem-estar cada vez mais depende das tecnologias de informação e comunicação (TIC), o que difere da fase histórica, na qual apenas nos relacionávamos com tais tecnologias, já havendo pessoas que afirmam que suas vidas estão agora completas após um novo modelo de Iphone ser lançado no mercado. Em tal fase, há um excesso de informação, com uma redução de nossa capacidade reflexiva e do conhecimento, já que estes demandam tempo, e estamos aprisionados na velocidade alucinante e exponencial dos tempos atuais. As tecnologias da informação e comunicação se tornam forças ambientais, antropológicas, sociais e interativas, criando e moldando nossa realidade e autocompreensão, modificando a forma como nos relacionamos uns com os outros e com nós mesmos, e a forma como interpretamos o mundo. O que é o ser humano, pergunta formulada por Sócrates a Alcibíades, retratada por Platão em uma de suas obras (Platão, Alcibíades, I, 129E)? Um conceito que é mutável através do tempo e das culturas, e também alterado pela tecnologia, que por sua vez também muda a cultura e todas as outras manifestações sociais. Qual seria então o conceito de ser humano adequado para a 4ª revolução e a época "onlife", diante de uma realidade e história gamificadas? Diante da insuficiência do homem prático (homo practicus/homo index), inundado por avalanches de informações que comprometem sua capacidade interpretativa e sensível, informações que substituem corpos e coisas, memórias e rituais, precisamos repensar as bases epistemológicas, hermenêuticas, ontológicas e fundacionais de nossa nova realidade. A memória possui um valor essencial de resistência, como aponta Foucault ("Ditos e escritos", vol. III, p. 386-387), sendo um importante fator de luta (é, de fato, em uma espécie de dinâmica consciente da história que as lutas se desenvolvem), então, se a memória das pessoas é mantida, mantém-se seu dinamismo, sua experiência, seu saber sobre as lutas anteriores. Segundo Santaella, a plasticidade implicada na rápida adaptação da memória humana está nos tornando simbio'ticos com nossos computadores, na convivência com sistemas interconectados que nos levam a saber menos sobre o conteúdo específico das informações em contrapartida ao muito que possamos a saber (SANTAELLA, Lucia, "Culturas e artes do pós-humano: da Cultura das Mídias à Cibercultura", Paulus Editora; 1ª. Edição, 2003). Diante da insuficiência do "homo linguisticus" de Barthes, com seu "eu" fora de si mesmo, permanecendo na linguagem, depois que a linguagem deixou a equação, para onde o sujeito foi expulso? Uma nova forma surge, o "phylum maqui'nico", termo forjado por Gilles Deleuze e Felix Guattari, mencionando o silício no agenciamento contemporâneo homem-natureza (DELEUZE,  Gilles. "Foucault", Editora Brasiliense, 1988, São Paulo). Um novo Super-Homem, um "Ubermensch": o Objeto? O homo poiético? "Cibercultura", "pós-humanismo", "singularidade" e outros termos famosos atualmente podem ser entendidos como tentativas de dar sentido ao nosso novo tempo. A era da 4ª revolução industrial, da indústria 4.0 ou da era do silício, com a superação da era do carbono, no "Império Cibernético", quando chegamos ao pensamento-máquina, vem caracterizada principalmente pelo uso da inteligência artificial em todos os setores de nossas vidas, com crescente intensidade de interconexões técnicas de todos os tipos. Luciano Floridi fala em "pan-computacionalismo", já que, em um determinado nível de abstração, qualquer coisa pode ser apresentada como um sistema de informação (Luciano Floridi, "Problemas abertos na filosofia da informação". Metafilosofia, v. 35, n, 4, pp. 554-582 et seq.), e assim qualquer coisa, como nós seres humanos podem ser calculados, em uma análise preditiva voltada à máxima eficiência e produtividade. A digitalização generalizada, impulsionada pela inteligência artificial, impacta a construção do direito, redimensionando questões relacionadas ao direito privado e ao direito público, os direitos humanos e os direitos fundamentais. Como ressalta Nestor Garcia Canclini, em seus livros "Hybrid Cultures" e "Ciudadanos reemplazados por algoritmos" (Bielefeld University Press, 2019, p. 10-18) ocorre o advento da governabilidade algorítmica, tornando o espaço público opaco e distante. A cidadania é radicalizada, enquanto alguns setores se reinventam e ganham batalhas parciais, como a luta pela igualdade de gênero, embora os usos neoliberais das tecnologias aprofundam as desigualdades crônicas do capitalismo. Partiremos então da reconsideração da filosofia e de seu papel ético, não apenas como uma prática teórica, mas uma prática capaz de trazer modificações ou contribuir para modificações da realidade, unindo-se a prática e a teoria. Como tocar as margens do impensável e do inominável, no sentido da construção e um pensamento filosófico próprio, autóctone, por não envolver apenas a reprodução do já falado antes, e continuar o caminho do pensamento, fazendo um experimento com a linguagem e pensamento, em uma linguagem poética do pensamento.             Como se daria uma filosofia da IA, da informação com base nos valores construcionistas do "Homo eroticus poeticus"?           A recuperação de Eros através da recuperação do outro, e, portanto, da diferença seria ainda possível em nossa sociedade do positivo? Eros que se manifesta no Outro está quase morto, com a morte ou exclusão do outro e de sua negatividade em nossa sociedade da performance, que contraditoriamente apaga os rituais e as memórias, e assim passamos de seres de relação para seres autocentrados, onde não há a negatividade do outro para se opor a nós mesmos. Por isso para Byung-Chul Han vivemos na era do pós-imunológico, um excesso de positividade do mesmo, matando a negatividade e a diferença, sendo o Outro que permitiria que nosso corpo produzisse anticorpos. Diante da nova cultura eletrônica e novas formas de arte, como arte generativa, arte computacional, arte digital, 3DP-Art, com processos de impressão 3D e prototipagem, R-ART, criação de robôs artísticos, e VR-Art, imersão em um mundo criado totalmente via computador, entre outras modalidades, a arte provavelmente já se transformou em algo totalmente outro, abandonando seus conceitos e características tradicionais. Tudo já havia virado arte com o Pop Art, como se observa das obras de Andy Warhol, e agora tudo virando informação, teremos a totalização da arte. Arte total? Qual a relação entre IA, criatividade e arte? Podem as artes produzidas por inteligência artificial serem consideradas arte, a exemplo de arte generativa, quando esta é criada independentemente de qualquer intervenção humana, quanto ao output, a exemplo do "AARON" criado por Harold Cohen, produzindo pinturas diretamente dos algoritmos de IA, ou seja, no sentido do ser humano não controlar e não prever o futuro do output, fugindo do seu controle? O que o aparelho enxerga? O que o acaso na arte computacional através de uma proposta de aparatos com "memórias" poderá nos desafiar em jogos de criatividade? Como a arte produzida em co-autoria entre homem-máquina poderá ser vista de forma "positiva", no sentido de uma complementação ou majoração da criatividade humana? Não se trata de trazer então uma visão pessimista e distópica, em comparação com uma utópica, pois a dualidade é bem mais pobre do que a multiplicidade, mas de procuramos a lógica diagonal, na linha de Michel Foucault em seu "Teatro Filosófico", na linha de uma polifonia, quando a diferença estaria libertada. Mesmo porque, quando se fala que a IA irá substituir o ser humano em diversas atividades profissionais, também isto, segundo alguns, poderia ser visto como "positivo", já que teríamos mais tempo disponível sem se preocupar com o trabalho, e assim aproveitar o ócio "criativo", mesmo que sem reflexão e sem busca por um maior conhecimento ou cultura, apenas com diversão e gamificação, já que o universo virtual nos preencheria de emoções mais intensas e gratificantes.  Ante o atual reconhecimento de um corpo real ligado a um corpo virtual, conectado ao mundo por meio de um fluxo de ele'trons, nosso corpo e nossa mente sa~o redimensionados, perdemos a refere^ncia tempo e espac¸o. Mas, o que iremos fazer de fato com o tempo disponível e em "maior liberdade". O conceito de liberdade se acha em questão, pois esta envolve deliberação autônoma, responsabilidade e vínculo com o Outro, o que para alguns filósofos já seriam fatores em extinção. Mais tempo disponível para ficar mais e mais em plataformas digitais e no Metaverso e em jogos de realidades virtuais, com a total gamificação da vida, levando outras vidas, mesmo que não vividas, sonhadas, mas representadas algoritmicamente? A arte produzida por IA, mesmo que acompanhada da criatividade humana em co-participação, poderá ser qualificada como uma criação de uma narrativa, mesmo que quantificada e calculada? A arte considerada como forma de conhecimento poderia ser produzida por uma IA que trabalha com o excesso de informações e não é capaz ainda de um verdadeiro conhecimento, trabalhando apenas com regras e não com princípios, ou seja, sem uma análise adequada valorativa, já que para tanto englobaria uma série de qualidades propriamente humanas? Mas, não seria a própria arte uma forma de conhecimento? É possível uma arte que não esteja relacionada à poiética, à poiesis, aos valores construcionistas do Homo eroticus poieticus? É possível uma arte produzida a partir de bits, números, cálculos, que não mais nos dialogue com a incompletude, e que nos faça sentir o assombro, o êxtase, que nos faça ficar de joelhos como dizia Hegel o que estava bastante presente na arte trágica? Por isso Hegel teria mencionado o fim da arte, não mais possível para se capturar o movimento e a complexidade do espírito humano, com o advento do Cristianismo, quando então a arte perde sua relação com o espirito humano e passa apenas a ser mera recreação, entretenimento e forma de decoração do ambiente. Uma arte aprisionada em uma mentalidade voltada para a eficiência e rapidez e vinculada à representação, no sentido de seus efeitos de questionamento, crítica, nos ajudaria a refletir sobre nós mesmos e nossa condição existencial, a refletir sobre nossa relação com a técnica e no que esta nos afeta? Uma arte morta e não vinculada às potências da vida, pois não produzida por um ser vivente? Aqui trazemos mais questionamentos e provocações do que respostas, pois estas também já nos são fornecidas mais facilmente pela IA, sendo de se considerar as respostas apenas como alternativas dentre as demais possíveis, um ponto de partida para inúmeras outras possibilidades, assim como o conceito. Talvez precisemos reconsiderar e redesenhar nosso vocabulário conceitual e nossas formas de dar sentido e fazer sentido ao mundo (nossos processos e práticas de semantificação), o que, por exemplo, poderia ocorrer ao reconhecer a capacidade da IA em fazer atribuições semânticas de sentido e ao produzir narrativas. Há que se falar em criatividade sem o "logos", sendo este o que nos faz humanos e distintos dos demais animais políticos, na formulação clássica de Aristóteles, como abelhas e lobos, substituído pelo calcular, mesmo sendo o cálculo uma eterna repetição do igual? O cálculo, o calcular é o oposto do pensar, pois o pensar lança-se no aberto, ao contrário de uma prévia determinação de asseguramento (em especial no sentido de uma proposta filosófica, vinculada também à zetética, opondo-se à dogmática neste sentido, por se pautar pelo questionar, pelo duvidar. Daí a crítica de Karl Popper no desenvolvimento de sua filosofia da ciência, característica do racionalismo crítico, no sentido de ser o direito uma pseudociência, isto na sua versão apenas dogmática, ao contrário da zetética. A abordagem zetética diferencia-se da análise apenas dogmática, ou seja, de uma abordagem tecnicista, permitindo-se uma crítica e alargada; tal diferenciação foi trabalhada pioneiramente por Tércio Sampaio Ferraz Jr., seguindo os desenvolvimentos de Theodor Viehweg, seu professor no doutorado na Alemanha, preocupando-se mais com as perguntas, com o questionar, do que com as respostas, tidas como dogmas ou verdades absolutas, afirmando a relatividade e precariedade de todo o conhecimento (Acerca da diferença entre dogmática e zetética ver Tércio Sampaio Ferraz Júnior, "Teoria da Norma Jurídica", Editora Atlas, 5ª. Edição, 2016, p. 21 e ss.). Trata-se de buscarmos a recuperação do erotismo e com isso, da poiesis, da criatividade, restituindo-se o valor erótico, de Eros, para que copulemos com a linguagem, recuperando a outricidade básica da linguagem, contrária a atual vulgarização da mesma, restituindo-se o valor diacrítico e dialógico da linguagem com a valorização do outro, da diferença, do valor de indicação, de nomeação, recuperando-se, outrossim, a natureza simbólica, já que hoje em dia a linguagem se tornou mais símbolo, sendo superficial e vazia. É preciso inventar com o corpo, com seus elementos, suas superfícies, seus volumes, suas densidades, um erotismo não disciplinar: o do corpo em estado volátil e difuso, com seus encontros ao acaso e seus prazeres não calculados".1 Uma sociedade sem o outro é uma sociedade sem Eros. A mesma crise poderíamos ver também nas artes, uma crise de amor (Eros). A IA e a arte produzida com a IA poderiam nos ajudar a sair da visão antropocêntrica de domínio da natureza e também da técnica como domínio e ver uma tecnodiversidade e cosmoética e cosmotécnicas, a serviço e a favor do ser humano, ou a técnica sendo também uma produção humana a que poucos terão acesso iria majorar ainda mais a percepção antropocentrista e reduzir a inclusão digital? É possível se pensar na técnica sem ligação a uma relação de domínio e de poder, desconsiderando que ela se relaciona com os que possuem os meios de "produção" atuais, no caso do "big data" e de computadores eficientes que podem fazer a mineração de dados e extrair dai predições e outros produtos? O mundo digital, contudo, é paradoxalmente desprovido de olhar, ao mesmo tempo em que tudo é exposto ao olhar. Apesar do panóptico digital, com sua luz por todos os lados, inclusive interior, não deixando nada escapar ao seu olhar, raramente nos sentimos contemplados ou expostos a um olhar (do Outro). O inteiramente Outro ilude qualquer previsão ou cálculo e se manifesta como um olhar, e neste olhar, nos vemos a nos mesmos. O mundo digital carece de qualquer qualidade de olhar. As janelas são uma janela sem vista, nos protegendo do olhar. Ao sairmos, preferimos tirar selfies e fotos de todos os detalhes e instantes, ao invés de olharmos com nossos próprios olhos e aproveitar o momento presente. No virtual, e também talvez com a arte produzida por IA iremos "habitar" um espaço sem olhar, no qual não é possível nenhuma experiência do Outro, nenhum olhar do Outro relacionando-se ao erotismo, à alteridade, a Eros. O olhar está desaparecendo em diversos níveis. Agora, o panóptico digital funciona de forma espectral, sem pontos cegos, não deixando escapar sequer os pensamentos e as emoções, os quais são também codificados e englobados em processos preditivos voltados ao consumo ou para fins políticos, ao contrário do anterior Panopticon, de Bentham, representativo da sociedade da disciplina foucaultiana, que ainda se baseava no domínio do olhar, centrado no olhar do supervisor, que tudo via sem ser visto, dissociando o ver/estar visto. A frase mais apropriada quando se fala no Metaverso é "be all you want to be", aproximando-se da frase mais popular durante a época dos libertinos do século XVIII, voltados para uma cultura do prazer, ridicularizando os valores do século e vivendo no excesso, qual seja "tudo é valido e tudo é permitido". Tudo é possível. Para Heidegger, o tudo é possível representaria uma experiência vivida [Erlebnis]  em torno de uma maquinação [Machenschaft], ou calculabilidade (Berechenbarkeit)  em um local onde não mais cabem questionamentos, ou seja, onde tudo é possível, o que também anunciaria o fim da filosofia, após Hegel, e no seu lugar, a cibernética, como aponta Heidegger em "The End of Philosophy and the Task of Thinking" em 1964 e na entrevista de 1966 para "Der Spiegel" (Martin Heidegger, Contribuições para a Filosofia (do Evento), trans. Richard Rojcewicz e Daniela Vallega-Neu (Bloomington e Indianapolis: Indiana University Press 2012), §51, 86). Contudo, o Metaverso é comemorado como um inventivo para a inclusão social, para uma maior igualdade, pois as pessoas se encontrariam de maneira digital, com inúmeras camadas que ampliam a experiência humana. Com a arte computacional, eArte (arte 3D), arte produzida por IA, e arte em ambiente de realidade aumentada, tais domínios irão se separar de vez, aparentando se fundir, produzindo-se uma nova dimensão ou um destes domínios cederá totalmente à existência do mais forte? Com a realidade aumentada cria-se um estímulo exponencial de sensações, impossível de se competir com a realidade, cada vez mais vazia e sem sentido. Contudo, ao invés de resolver a causa do problema, tenta-se atacar a consequência, trazendo o risco de maior desorientação e alienação ao comprometer a capacidade de apreensão e de incorporação da experiência na dimensão mais profunda do sujeito. Em tal arte não há mais espaço para o silêncio, para o estranhamento profundo e, pois, a possibilidade de questionamento interno que seria um incentivo à transformação pessoal. O digital representa o excesso de significado sem qualquer correspondência com significantes, e a sedução (eros) significa o excesso de significantes, que não podem ser reduzidos ao significado. A arte relacionada à poética, e ao erotismo, é uma forma de comunicação, sendo que não há nada mais pro'ximo do erotismo do que a comunicação, a qual envolve a linguagem em contato intrínseco com o erotismo. A arte aqui que se postula, como bem apontado por Walter Benjamin, e' aquela responsa'vel por nos fazer recolher diante da obra de arte e nos abismar dentro dela, ao contra'rio da arte como simples distração e divertimento, quando seri'amos consumidos por ela. O erotismo como a mais real forma de criatividade artística, se relaciona à arte não como divertimento, entretenimento, mas com o potencial de nos fazer maravilharmos novamente, ou nos apiedarmos, com o potencial de transformação. É o que já propunha Aristóteles em sua Poética, prevendo a arte como forma de salvação do ser humano e através da arte, a vida (Aristóteles, Poética, trad. Eudoro de Souza. 3. ed. São Paulo: Ars Poética, 1993.) Em sentido semelhante Nietzsche, ao propor a arte como a forma mais elevada de atividade metafísica, através da qual a vida é tornada possível e digna de ser vivida, a arte que salva e pela arte a vida nos reconquista (Nietzsche, O nascimento da Tragédia, São Paulo: Editora Escala, 2013, coleção essência de Nietzsche). A poética permitiria a presentidade, a imediatividade, saindo da linearidade, e entrando na espiral, nos aproximando do resto, permitindo uma abertura. O erotismo como a mais real forma de criatividade artística, se relaciona à arte não como divertimento, entretenimento, mas com o potencial de nos fazer maravilharmos novamente, ou nos apiedarmos, com o potencial de transformação.  ___________ CANTARINI, Paola. Tese de doutorado em Filosofia, PUCSP, 2021, "Theatrum philosophicum - O teatro filosófico de Foucault e o Direito". ________. "Teoria Erótica do Direito", Rio de Janeiro: Lumen Juris, 2017. _______. E GUERRA FILHO, Willis S. "Teoria inclusiva dos direitos fundamentais e direito digital", Clube de Autores, 2020; _______."Teoria Fundamental do Direito digital: uma análise filosófico-constitucional, Paola Cantarini, Clube de Autores, 2020. DELEUZE,  Gilles. "Foucault", Editora Brasiliense, 1988, São Paulo. FERRAZ JR., Tércio Sampaio. "Teoria da Norma Jurídica", Editora Atlas, 5ª. Edição, 2016. FLORIDI, Luciano. "The Logic of Information: A Theory of Philosophy Philosophy as Conceptual Design", Oxford: OUP, 2019. FOUCAULT, M. "Ditos e escritos". Tradução de Vera Ribeiro. Rio de Janeiro: Forense Universitária, v. I (Problematização do sujeito: Psicologia, Psiquiatria e Psicanálise), 2002. _______. "Ditos e Escritos" - Vol. II - Arqueologia das Ciências e História dos Sistemas de Pensamento, Editora Forense Universitária; 3ª edição, 2013. ________. "Nascimento da biopolítica", curso no Collège de France (1978-1979). trad. Eduardo Brandão. São Paulo: Martins Fontes, 2008.  _______."O governo de si e dos outros: curso dado no Collège de France (1982-1983) (E. Brandão, Trad.). São Paulo: Martins Fontes, 2011. ______."História da sexualidade III: O cuidado de si, Editora Paz & Terra; 5ª edição, 2014. ____. "As palavras e as coisas", Editora  Martins Fontes, 10ª, Nova Edição, 2016. _____."Theatrum Philosophicum", São Paulo: Principio Editora, 1997, tradução de Jorge Lima Barreto. GUERRA FILHO, Willis Santiago; CANTARINI, Paola. Teoria poética do direito. Rio de Janeiro: Lumen Juris, 2015. HEIDEGGER, Martin. "A questão da técnica". Emmanuel Carneiro Leão (trad.), in: Id., Ensaios e conferências. Trads. Emmanuel Carneiro Leão, Gilvan Fogel e Marcia Sá Cavalcante Schuback. 6.ed. Petrópolis: Vozes, 2010. HERMETES, Reis de Araújo, "Apresentação, in Tecnociência e Cultura. Ensaios sobre o tempo presente", São Paulo: Estação Liberdade, 1998, p. 12). HUI, Yuk. "Technodiversity", Ubu Editora, 2020. JOHNSON, Khari. AI ethics is all about power. Em https://venturebeat.com/2020/02/21/google-launches-tensorflow-library-for-optimizing-fairness-constraints/, 2019. Acesso: 10/08/2020. LEE, Kai-Fu. "AI 2041", 2022. Ebbok, Apple. SANTAELLA, Lucia, "Culturas e artes do pós-humano: da Cultura das Mídias à Cibercultura", Paulus Editora; 1ª. Edição, 2003. SERRES, Michel. "The Parasite", Editora : University of Minnesota Press; First edition, 2007. TEUBNER, Gunther. "O direito como sistema autopoietico". Tradução e prefácio de Jose Engrácia Antunes, Lisboa: Fundação Gulbenkian, 1989. VIRILIO, Paul, "O espac¸o cri'tico", Sa~o Paulo: Editora 34, 2014 WISNIK, José Miguel. "O som e o sentido. Uma outra história das músicas", São Paulo: Companhia das Letras, 2017.  ___________ 1 M. Foucault. "Ditos e escritos", vol. III, p. 424. Somos dominados por conceitos alienantes, e em um segundo momento por imagens técnicas que nos alienam e subjugam, pois nos fazem crer serem a realidade, quando na verdade se distanciam ainda mais dela do que os conceitos. Em assim sendo, representam, como abstração matemática, um fim em si mesmo, e nos levando a cair na armadilha de estarmos presos no domínio técnico dos aparelhos, sem perceber.
"É muito difícil colocar a inteligência artificial de volta na garrafa", disse Bill Gates, um dos homens que comandam uma das maiores big techs do mundo e que expressa nesta frase as suas dúvidas sobre o potencial de crescimento disruptivo da IA. Seria como comparar seu uso em carros autônomos ou em um sistema de armas autônomas, que pode ou não valorar a vida humana. Que impactos teria em uma guerra como da Ucrânia? Embora, seja comum ouvirmos falar que o gênio só atende 3 pedidos de Aladim,  na verdade, segundo a história original de "As Mil e Uma Noites"1, o gênio pode satisfazer pedidos infinitos para quem detém a garrafa mágica, similar à  tecnologia de IA, porque não tem limites e detém a capacidade de aprender por si mesma (machine learning). O aprendizado das máquinas nos processos de negócios em todos os campos é praticamente ilimitado. Daí, as preocupações com os riscos que cercam o crescimento da IA em ritmo exponencial, com investimentos que devem chegar a US$ 203 bilhões até 2025, segundo a Fortune Business Insights. Embora a IA ainda esteja na seara de tarefas específicas, como  pilotar um avião, controlar um marcapasso, sistemas de busca na internet,  fazer um reconhecimento fácil, trabalhos com chatbots,  evitar ataques cibernéticos, criar criptografias, aumentar benefícios econômicos com o incremento da eficiência em diferentes setores; a IA tem um  potencial  difícil de mensurar  quando atingirmos  a fase das máquinas superinteligentes, capazes de executar  qualquer tarefa cognitiva acima da capacidade humana, promovendo autoaperfeiçoamentos. Como mitigar esses riscos? Certamente, a regulamentação é um caminho, porque permite que todos os atores interessados participem do debate. No Brasil, o Marco Legal da IA2, aprovado pela  Câmara dos Deputados, está estruturado em princípios gerais que regulam a matéria, fundamentos, direitos e deveres das partes e diretrizes para o Poder Público. O Marco Legal é sem dúvida um grande passo para a definição de aplicação ética do uso adequado da IA, tendência que vem sendo seguida pela União Europeia. Uma definição assertiva do que representa esse marco é a de que "as normas sociais, embora não necessariamente gerem sanções jurídicas, regulam o comportamento do indivíduo e dos grandes agentes econômicos, pois sua inobservância pode gerar represálias".3 .No projeto nacional, a IA é definida como "sistema baseado em processo computacional que pode, para um determinado conjunto de objetivos definidos pelo homem, fazer previsões e recomendações ou tomar decisões que influenciam ambientes reais ou virtuais". Já a União Europeia adota uma definição de IA com base em sistema, portanto, seria um software desenvolvido para um conjunto de objetivos visando gerar conteúdo, previsões, recomendações etc. No final das contas, estamos em busca da busca de um padrão ético. O Marco Legal brasileiro assegura em seu artigo 4º que não pretende retardar ou impedir o desenvolvimento tecnológico, inovação, livre iniciativa e livre concorrência, embora esteja previsto no texto que o poder público tem a prerrogativa de promover intervenção subsidiária, quando for necessário criar regras específicas; atuação setorial voltada a cada segmento e gestão baseada em risco, que devem levar em conta a probabilidade de riscos e potenciais benefícios. Temia-se que a lei tivesse a capacidade de se tornar um cipoal burocrático, servindo de obstáculo ao desenvolvimento da IA, o que não aconteceu. Para avaliações de conformidade, o Marco Legal brasileiro criou os agentes de IA, "pessoas físicas ou jurídica, de direito público ou privado, e entes sem personalidade jurídica". Os agentes de desenvolvimento participam do planejamento e design, coleta e processamento de dados e construção de modelos, verificação e validação. Destaque para o termo design, que toma forma como privacy by design; privacy by default; privacy by security e assim por diante, trazendo conceitos de segurança na concepção e execução dos projetos. Já os agentes de operação são todos aqueles que integram a fase de monitoramento e operação do sistema de IA.  O novo Marco Legal também propõe dialogar com Leis correlatas, como a Lei Geral de Proteção de Dados (LGPD), Marco Civil da Internet, Código de Defesa do Consumidor e a Lei de Acesso à Informação (LAI) para criar uma nova cultura voltada a entender as tecnologias disruptivas e mitigar seus impactos sobre o bem-estar dos indivíduos. A exemplo do modelo europeu em desenvolvimento, o Marco Legal brasileiro guarda preocupações com os direitos humanos, aliás, seu principal objetivo, valores democráticos, não discriminação, preservação de direitos individuais e coletivos. Os requisitos regulatórios buscam estabelecer controle, até porque algumas decisões da IA, não são interpretáveis e podem ser opacas até mesmo para seus criadores. Nesse sentido, a UE propõe alguns requisitos para os sistemas de IA, como utilizar os valores da União Europeia no treinamento de algoritmos; manter registros usados para treinar sistemas de IA; informar os cidadãos quando estão interagindo com um sistema de IA; adotar medidas para minimizar danos; utilizar identificação biométrica com salvaguardas e manter a supervisão humana para o sistema de IA. A indústria de IA inclui uma gama vasta de segmentos de interesses globais. Por isso mesmo, já estamos vendo o início de conflito regulatório entre a União Europeia e os Estados Unidos. Os europeus4 estão propondo regras para uso de sistemas e algoritmos de IA, com um arcabouço legal que cria o chamado "ecossistema de confiança" que irá estruturar a confiabilidade da IA. O argumento da UE é que a regulamentação suprirá as "lacunas" deixadas pelo mercado, que envolveriam risco à segurança e danos aos usuários, como fins maliciosos do uso da IA.  No projeto europeu, há quatro tipos de riscos: "mínimos" (videogames), "limitados" (chatbots ou assistente de voz) "altos" (identificação biométrica, gestão de infraestrutura, educação, emprego, controle de fronteiras, administração da justiça etc.) e "inaceitáveis" (sistemas de identificação biométrica em tempo real, pontuação social, técnicas subliminares). Ao contrário da União Europeia, os Estados Unidos têm adotado um regulamento fragmentado da IA cabendo às agências reguladoras fazer o seu monitoramento. Embora esteja vivo o sonho da Comissão Europeia de construir com o governo do presidente americano Joe Biden um acordo sobre IA, dificilmente os Estados Unidos adotarão uma regulamentação abrangente como a dos europeus. Essa estrutura regulatória, caso venha a se concretizar, teria um peso e influências globais. A complexidade da IA estar no fato de que é uma tecnologia emergente em todas as frentes do conhecimento humano. Ao deixar o gênio sair da garrafa,  corremos o risco de ir além do previsível, talvez explorando o potencial e possíveis impactos adversos da IA; sendo que o senso comum nos adverte que não devemos desejar à toa, nem deixar de sonhar. Assim, na pior das hipóteses, a Lei para regrar a IA pode ser o argumento certo para desafiar o gênio a se controlar e até voltar para a garrafa, se necessário. ___________ 1 GALAND, Antoine (versão). As Mil e uma Noites. São Paulo: Ediouro, 2001 2 Disponível em https://www.camara.leg.br/propostas-legislativas/2236340 3 Direito e Inteligência Artificial: Fundamentos: vol.1 / Willis Santiago Guerra Filho. [et al] organizadores - Rio de Janeiro: Lumen Juris, 2021. Artigo "A proteção de dados como fator ético intrínseco aos modelos de negócios baseados em IA", Dora Kayfman e Priscila do Amaral S. Reis. 4 Disponível em White Paper - "On Artificial Intelligence: A European Approach to Exclence and Trust". Disponível em https://ec.europa.eu/info/sites/default/files/commission-white-paper-artificial-intelligence-feb2020_en.pdf?_x_tr_sl=en&_x_tr_tl=pt&_x_tr_hl=pt-BR&_x_tr_pto=nui,sc      
Antes do advento da tecnologia das redes sociais e do uso de smartphones e videogames,  os jovens faziam  mais uso da imaginação debruçados nos livros e HQs (histórias em quadrinhos). A imaginação reinava no mundo virtual de nossas mentes, conduzindo os sonhos. Por isso, não é difícil nos dias atuais  ler uma HQ dos anos 1960 ou assistir um filme de ficção científica sobre  tecnologias  que só viriam a se materializar anos mais tarde. Nessa linha de raciocínio, percebemos que o homem, desde a antiguidade, se desenvolveu através do pensamento e graças aos primeiros filósofos, talvez hoje, exista a inteligência artificial. Platão em sua teoria das ideias investigou o mundo virtual, a realidade virtual, o autor Massimo Citro cita uma interessante passagem "o intercâmbio entre o mundo e o antimundo acontece no reino intermediário, o "terceiro tipo" de Platão, ", ainda em seu raciocínio "Aos olhos humanos, o real (os bastidores) parece virtual, e o virtual parece real." , isso traz à tona que o mundo virtual não é novidade, nem mesmo os algoritmos1, que de maneira semelhante nosso cérebro processa as nossas decisões. Guimarães Rosa sabiamente dizia que "o real não está na saída nem na chegada: ele se dispõe para a gente é no meio da travessia".O que é real? O sentido da palavra é tudo o que realmente existe; de fato real e  verdadeiro, a realidade é refletida em nossas sensações  no mundo que percebemos e sentimos. Massimo Citro escreveu sobre o que é realidade, "Percebemos as sensações que temos no interior como se estivessem no exterior. Quando vemos, na verdade estamos olhando para dentro de nosso cérebro; quando ouvimos, escutamos um processo levado a cabo por nosso córtex; quando tocamos, recebemos estímulos gerados por nossos neurônios." e por fim, "o mundo não é o que parece ser". Com base em tais premissas entendo que o homem nada mais fez do que realizar seus sonhos de infância em sua contínua busca para desvendar o código do universo, materializando agora com uso da tecnologia, o mundo virtual, é a percepção da não realidade que se torna realidade. Seria o Metaverso? O mundo do ser digital é real e vice-versa, coexistindo e influenciando os seres humanos, por isso, talvez estejamos diante do maior desafio da ciência jurídica, ordenar e regulamentar um novo espaço virtual, agora não mais de nossas mentes, mas das máquinas, estas, fruto de nossa própria criação. O desafio está em sistematizar e proteger os cidadãos da velocidade de processamento de dados que a nova tecnologia permite trazer, tanto para o bem quanto para o mal. Podemos listar centenas de benefícios trazidos com a tecnologia atual, sem se falar do que está por vir com o advento do 5G (a internet das coisas).A contrapartida disso é o que está por trás, há aqueles que trabalhem com outros objetivos, com base nessa massa de dados (big-data)2, manipulando como desejar as preferências, de acordo com seu objetivo. Os riscos da má conduta, da falta de ética pode levar à concepção de aplicações discriminatórias.A matemática e cientista de dados, Catthy O'Neil, pesquisou a discriminação algorítmica em um mecanismo de avaliação de professores americanos para promover ou demitir, de acordo com sua pontuação. Um homem foi preso injustamente nos Estados Unidos por ter sido confundido por outra pessoa através do sistema de reconhecimento facial da polícia. Isso precisa ser ajustado. Como seria então a definição ética das decisões em situações de risco/acidente de um veículo autônomo? Ele atuará de acordo com a programação dos cientistas de dados, e da mesma maneira que nosso cérebro processa nossas decisões, adotará ações pré-definidas com base naquilo que foi programado, ou seja, o veículo autônomo não "pensa", apenas processa. Diante disso, ainda que não exista a máquina da singularidade, tudo que se vê foi programado por um ser humano, portanto, requer cercá-lo de normas que definam o que é certo e o que é errado, novamente, o bem versus o mal. Essa é a importância da legislação que aborda a conduta ética, tão abstrata ainda, mas importante como pontapé inicial. Os conceitos PIA (Privacy Impact Assessment)3 vêm auxiliar o gerenciamento dos projetos: Perceba que não falamos aqui de tecnologias com fins militares e tampouco políticos, temas que requerem uma nova pesquisa.privacy by design4; privacy by default e privacy by security, são fundamentais para aplicação na concepção de novos serviços tecnológicos e as bases legais devem não só orientar, mas punir os infratores. Nessa nova realidade, nem tudo ou quase tudo, não é notado, a programação matemática dos algoritmos está abaixo da linha do oceano e não podemos perceber, a única maneira de minimizar os impactos e a contínua evolução nos debates da sociedade; consultas públicas; iniciativas de Lei para proteger os cidadãos e educação constante. O cenário mundial da proteção dos dados pessoais engloba mais de 140 países, destes, 118 Estados-Membros da ONU, além de dezenas de iniciativas pendentes que protegem os dados pessoais em todo o planeta. No Brasil temos a Lei Geral de Proteção de Dados, (LGPD - lei 13.709, de 14 de agosto de 2018), semelhante à norma Europeia (GDPR), trazendo as orientações básicas para o tratamento dos dados, por todo e qualquer tipo de empresa, pública ou privada. Um parêntese para o significado da palavra tratamento, ele corresponde ao bom ou mau uso que se faz das coisas; cuidado ou negligência com que delas se trata, estabelecido na LGPD em mais de 20 condições de tratamento dos dados pessoais das pessoas naturais. O contínuo e exponencial avanço da tecnologia tem demonstrado a importância da regulamentação perante tantos riscos e ameaças.  Nesse breve contexto é possível chegar a uma primeira conclusão, de que, de fato, foi muito importante o início da vigência da LGPD, digamos até que "antes tarde do que nunca", além de outras normas que chegarão, dentre delas, o Marco Legal da IA (PL 21/20). Os dados pessoais representam um poder nunca antes percebido pelo homem comum, além do valor monetário que a massa de dados pode representar. O que significa incluir a proteção de dados no rol dos direitos fundamentais? a proteção dos dados pessoais agora tem como tutela a Constituição Federal, como contribuição filosófica acerca da teoria dos direitos fundamentais, como relação universal, o autor Robert Alexy aborda a amplitude desse enquadramento, "as normas de direitos  fundamentais são "(meras) normas de princípios" , que "indicam que, na ordenação das relações sociais e na solução de conflitos, deve ser conferido um peso especial a determinados interesses de liberdade (liberdades de crença, de opinião, de profissão e de propriedade etc.), em suma, à ideia de autodeterminação individual." No caso dos dados pessoais, entramos no rol dos direitos a proteção, bem destacados também por Alexy: "Por 'direitos a proteção' devem ser aqui entendidos os direitos do titular de direitos fundamentais em face do Estado a que este o proteja contra intervenções de terceiros." Conceituado por Luiz Barroso, "os direitos fundamentais, por sua vez, são os direitos humanos incorporados ao ordenamento jurídico doméstico. Significam a positivação, pelo Estado, dos direitos morais da pessoa. " .Essa conceituação é fundamental para o entendimento de que a inovação tecnológico trouxe à sociedade benefícios e riscos, necessitando adaptar o ordenamento jurídico à nova realidade para proteção de mais um valor intrínseco a dignidade da pessoa humana, que sem isso, poderia certamente desordenar o desenvolvimento das pessoas e ferir as liberdades conquistadas ao longo de décadas. Compreendendo o cenário em que vivemos é de suma importância que se estabeleçam critérios morais e éticos para a conduta daqueles que fazem uso da tecnologia, sendo que o pontapé inicial foi dado com a LGPD; o Marco Civil da Internet; o Código de Defesa do Consumidor entre outras normas que estão por vir, mas destaco a iniciativa do Deputado Eduardo Bismarck através do Projeto de Lei nº 21/2020 que estabelece "princípios, direitos, deveres e instrumentos de governança para o uso da inteligência artificial no Brasil e determina as diretrizes para a atuação da União, dos Estados, do Distrito Federal e dos Municípios, pessoas físicas e jurídicas, de direito público ou privado, e entes sem personalidade jurídica em relação à matéria." Diante de tamanha complexidade, uma sociedade de dados com altíssima velocidade de processamento e os riscos inerentes à má conduta nos levam a crer que o desafio do direito é proporcional, como poderíamos debater publicamente as questões de segurança e desenvolver Projetos de Lei ao passo que a velocidade da tecnologia estará sempre à frente. A chave para reduzir tais impactos e harmonizar vem da teoria desenvolvida por Willis Santiago, aplicando-se o princípio da proporcionalidade, como o princípio dos princípios e a reinvenção dos direitos humanos. A autora Paola Cantarini destaca: "Assim sendo os procedimentos são a ponte que liga o sistema jurídico aos demais sistemas, sendo de fundamental importância para as operações de autor-reprodução judicial dentro dos sistemas." E, nesse sentido, deve-se "ressaltar a importância crescente do papel da magistratura, e a influência decisiva, em nossa sociedade hipercomplexa, de leis processuais, de procedimentos, possuindo até mesmo as normas das Constituições a natureza de normas processuais. " Barroso, Luís Roberto; Curso de direito constitucional contemporâneo: os conceitos fundamentais e a construção do novo modelo. 9. ed - São Paulo: Saraiva Educação, 2020. Alexy, Robert. Teoria dos direitos fundamentais. tradução Virgílio Afonso da Silva. 2. ed - São Paulo: Malheiros Editores, 2008. Santiago Guerra, Willis [et al] organizadores. Direito e inteligência artificial: fundamentos: vol. 1. Rio de Janeiro: Lumen Juris, 2021. Santiago Guerra, Willis [et al] organizadores. Direito e inteligência artificial: fundamentos: vol. 2. Rio de Janeiro: Lumen Juris, 2021. Cantarini, Paola. Teoria Fundamental do Direito Digital: Uma Análise Filosófico-constitucional. Amazon. São Paulo, Brasil, 2020. Citro, Massimo. O código básico do universo: a ciência dos modelos invisíveis na física, na medicina e na espiritualidade: tradução Humberto Moura Neto, Martha Argel; prefácio de Erwin Laszlo - 1. ed. - São Paulo: Cultrix, 2014. O'Neil, Catthy. Algoritmos de destruição em massa: como o big data aumenta a ____________ 1 Na matemática e ciência da computação, o algoritmo é uma sequência finita de ações executáveis que visam obter uma solução para um determinado tipo de problema. vide: https://pt.wikipedia.org/wiki/Algoritmo 2 Big data é a área do conhecimento que estuda como tratar, analisar e obter informações a partir de conjuntos de dados grandes demais para serem analisados por sistemas tradicionais. Fonte: Wikipédia 3 Uma avaliação de impacto de privacidade, é um processo que ajuda as organizações a identificar e gerenciar os riscos de privacidade decorrentes de novos projetos, iniciativas, sistemas, processos, estratégias, políticas, relações comerciais, etc. Fonte: Wikipédia 4 Privacidade desde a concepção é uma abordagem à Engenharia de Sistemas, a qual leva em conta a privacidade durante todo o processo de construção do software. É um conceito sensível aos valores humanos e todas as suas derivações em todo o processo. Fonte: Wikipédia
Da mesma forma que importa perguntar porque regular a inteligência artificial, nos cabe questionar o que é ética e o porquê da ética na sua relação com a IA. Os problemas relacionados à IA impõem um diálogo constante entre o Direito, a Filosofia (Ética) e a Tecnologia, já que estamos tratando de temas com características como a da transversalidade, sendo imprescindível a aproximação de campos científicos não jurídicos, resultando numa espécie de equivalente atual do que outrora, ainda há pouco, foi o direito ambiental. Do que se trata, afinal, é de repensarmos a relação entre as diversas disciplinas e saberes, e de rediscutirmos a inter e a transdisciplinaridade em novas bases diante da dissolução das fronteiras entre as exatas e as humanidades, a exemplo do que ocorre com o Direito Digital, por meio do desenvolvimento de uma teoria inclusiva e democrática, de uma Teoria Fundamental do Direito Digital e da Inteligência Artificial, aplicando-se a tais temáticas a Teoria dos Direitos Fundamentais, de forma a propiciar uma adequada proteção aos direitos fundamentais ("Teoria inclusiva dos direitos fundamentais e direito digital", Paola Cantarini e Willis S. Guerra Filho).  Vivemos na fase da hiperhistória ou pós-história (Vilém Flusser), na sociedade e economia de dados característica da era da 4ª revolução industrial, da indústria 4.0 ou era do silício, ocorrendo a dependência de nosso bem estar das tecnologias da informação e comunicação, o que diferencia da fase histórica antecedente, na qual indivíduos apenas se relacionavam com tais tecnologias (Luciano Floridi), sem que estivéssemos ainda possuídos por o que se pode chamar de "infomania" (Byung-Chul Han). A tecnologia e em especial a IA como a mais disruptiva das tecnologias, e a cada dia sendo mais utilizada, produzem efeitos em todos os setores sociais, na cultura, no ser humano, em nossas subjetividades, e no conceito de ser humano, e com isso no conceito do que significa continuar sendo humano, diante dos novos hibridismos e agenciamentos que surgem na interação tecnologia-humanos. As tecnologias da informação e comunicação se tornam forças ambientais, antropológicas, sociais e interativas, criando e moldando nossa realidade e autocompreensão, modificando a forma como nos relacionamos uns com os outros e com nós mesmos, e a forma como interpretamos o mundo. Surge o po's-humano, transformando a forma como nos relacionamos com o nosso em torno, vivendo em espaços com a abolição da distância, surgindo a paradoxal "simultaneidade da presenc¸a e ause^ncia, presenc¸a ausente, ou ause^ncia presente".   Nos cabe indagar: os desafios da IA para a ética e o direito serão resolvidos pela própria tecnologia? O "logos", a linguagem é nossa casa, e esta forma de pensamento reflexivo, criativo, imaginativo e sensível traz um tipo de reflexão impossível às máquinas, já que estas se concentrariam em oferecer respostas com base em regras. Mas o mais importante é saber fazer as perguntas corretas e que interessam, tais como, como queremos viver, o que nos é importante como sociedade? O que significa ser, o que significa ser humano no futuro? Qual o futuro do trabalho na sociedade datificada? Como será o advogado do futuro e quais novas habilidades deverá desenvolver?  A preocupação com a ética na área da inteligência artificial estaria já com seus dias contados, diante da possível ocorrência da "lavagem ética" e da insuficiência dos princípios éticos? Ocorreria a lavagem ética quando as empresas acabam desvirtuando a atenção acerca da necessidade também de uma regulação jurídica na área da inteligência artificial, ao afirmarem ser suficiente apenas um código de condutas, o que de certa forma não contribuiria para a resolução dos problemas, já que não há a necessária imparcialidade e coercitividade como no caso da heterroregulação, muitas vezes não passando de uma carta de boas intenções.  Diante de tais problemáticas, fala-se no fim da era dos códigos de conduta (Luciano Floridi, "The end of an era: from self-regulation to hard law for the digital industry"). Jess Whittlestone neste sentido aponta para a urgência de se encontrar maneiras de incorporar a ética no desenvolvimento e na aplicação da IA, embora até o momento o catálogo de princípios éticos elaborados por diversos organismos internacionais e empresas tenha se concentrado em princípios gerais, sem ofertar solução no caso de conflito entre princípios éticos, afirmando a ineficácia dos princípios éticos gerais. Corrobora tais assertivas o estudo denominado "Inteligência Artificial com Princípios: Consenso de Mapeamento", elaborado pelo Berkman Klein Center for Internet & Society da Harvard Law School traçando um panorama mundial de princípios éticos da IA, concluindo pela existência de uma grande distância entre teoria e prática na articulação dos conceitos e a sua realização concreta; inexistência de elaboração de princípios orientados para aplicações específicas de IA; divergências quanto a conceitos essenciais como, por exemplo, acerca do que se entende por "justiça". As questões éticas relacionadas com a inteligência artificial, contudo, vão muito além da elaboração de códigos de condutas éticas, de questões atreladas aos veículos automatizados e sua configuração altruísta ou não, no sentido de que vida poupar, ou de configurações de "bots" assistentes pessoais que se relacionam com crianças com aplicações "educativas" voltadas à "ética by design". Neste sentido a aplicação "Pretty Please" embutido no assistente de IA do Google, "ensinando" a criança a melhor se relacionar com seus pais, a exemplo da denominada "politenesse feature", enfatizando a importância do uso das palavras "por favor" e "obrigado" no lugar da predominância de frases impositivas.  É essencial encontrar alternativas para superar a inefetividade de princípios éticos, bem como a insuficiência de leis principiológicas e a possível ocorrência da lavagem ética de forma a tornar efetiva a regulamentação da inteligência artificial, levando-se em consideração os conceitos de ética digital intercultural, tecnodiversidade, cosmoética, fugindo-se de uma lógica ou viés antropocentrista e eurocêntrico, em atenção, outrossim, às Epistemologia do Sul, considerando-se o sul como categoria epistemológica e não geográfica (Boaventura de Souza Santos).  A IA vem sendo utilizada para a criação de perfis de publicidade direcionados a cada tipo de personalidade analisada (profiling), elaborando-se scores pelos sistemas de proteção ao crédito, bem como em policiamento preditivo, utilizando-se das análises de tendências via Big Data Analytics, construindo-se estratégias individualizadas, influenciando a opinião e atitudes públicas, além da tecnologia relacionada ao microtargeting, fundamental quando se fala em sistema eleitoral atualmente. Há um forte impacto da IA na área trabalhista, relacionando-se com o termo "algocracia", traduzindo-se nos efeitos dos algoritmos no campo das relações de trabalho, envolvendo as temáticas da governança de algoritmos. É crescente a utilização da IA na área de recrutamento e seleção, denominado de "recrutamento inteligente", com a utilização de plataformas tecnológicas especializadas no processo seletivo, denominadas de HR Rechs (Human Resources). Com isso afirma-se que são evitados critérios subjetivos ou pessoais na escolha de candidatos, evitando-se, pois, viés (bias), pautando-se em uma neutralidade axiológica, imparcialidade e na redução de erros na triagem dos candidatos (people analytics). Como a IA irá afetar o futuro do trabalho? Grande parte da população sem condições pessoais, econômicas, e sem tempo para se adaptar as novas oportunidades de emprego viverá como uma classe considerada inútil, diante do massivo desemprego gerado pela substituição de funções desempenhadas por humanos por máquinas. Com isso haverá um enorme tempo em disponibilidade que poderá ser utilizado como ócio criativo em realidades virtuais que ampliam a gamificação da vida, em um eterno mundo virtual, onde tudo é possível e todos os desejos são realizados a um só click, como no caso do metaverso.  Como se dará a proteção aos direitos fundamentais e humanos e à dignidade humana no metaverso, ao trazer uma maior ou nova vulnerabilidade, diante da maior possibilidade de manipulação comportamental e emotiva, além de uma extraordinária quantidade de dados pessoais coletados e tratados, nem sempre de forma transparente, perceptível ou informada, envolvendo o conceito de captologia.   Bem vindos ao Congresso Futurista do Real, para aludirmos a dois filmes de ficção científica distópica, o mais conhecido Matrix e menos conhecido, mas não menos importante Congresso Futurista. O termo captologia foi cunhado em 1990 pela primeira vez por B.J. Fogg, durante seu doutorado na Universidade de Stanford/EUA, e criação do Laboratório "Persuasive Tech Lab", relacionando-se com a manipulação do comportamento humano por meio de tecnologias com potencial persuasivo. Ocorre o incremento de tal potencial em raza~o da utilizac¸a~o do big data e machine learning, por sua característica da ubiquidade e técnica interativa, sem possibilitar a percepção e cognição do seu uso e de suas consequências, diferenciando-se neste aspecto dos meios de comunicação social tradicionais que se utilizavam de táticas de manipulação comportamental, mas sem conseguir produzir um resultado personalizado. A ética significa em seu sentido grego original "postura", traduzindo em uma postura em relação à vida, a favor da vida, relacionando-se com a postulação epistemológica com fundamento nos valores da "poiesis", e, pois, da poética e da erótica ("Teoria Erótica do Direito", "Teoria Poética do Direito"), no sentido de abraçar a criatividade, a sensibilidade, a imaginação, e o que há de melhor e de pior no ser humano, pois justamente isso que nos faz humanos. Longe de uma busca pela perfeição, beleza, imortalidade e eficiência, objetivos mencionados pela proposta do transhumanismo, de forma a alcançar o crime perfeito: a morte da morte, chegando-se ao "Homo Deus". Apesar de alguns filósofos apontarem, a exemplo de Heidegger, para o fim da filosofia após Hegel, é essencial a recuperação do pensamento reflexivo, crítico, interdisciplinar, zetético, indo além de um pensamento reprodutivo de uma série de informações, obtidas em escala crescente, havendo uma relação antípoda entre informação e comunicação, isto é, quanto mais informação menos comunicação e compreensão, diante da inexistência de tempo e de silêncio. As coisas estão dando lugar às informações (Vilém Flusser), surgindo a era das não coisas (Byung-Chul Han).  Antecipar princípios éticos poderá servir para influenciar o design ético da tecnologia, quando valores são designados no design da tecnologia, "ethics by design". As regulações europeia, canadense e americana ao aprovar os princípios para os desenvolvedores de aplicações de IA, com vistas ao estabelecimento de "framewoks" , trazem os conceitos de "responsabily-by-design", "privacy-by-design" e "security-by design". Trata-se da  necessária construção de um sistema de proteção proativo, abrangente e sistemicamente seguro, uma proteção sistêmica, envolvendo a proteção desde a concepção tecnológica ("protection by design"), por meio da criação de arquiteturas de decisão adequadas à proteção com o auxílio da concepção e de ferramentas tecnológicas, implementando-se a segurança ("security by design"), envolvendo a transparência do design tecnológico (projeto técnico) e dos algoritmos de IA, e não apenas no tratamento de dados pessoais.  Passa-se do paradigma da autodeterminação informativa para uma arquitetura de gerenciamento de riscos, sendo tal modificação atrelada à abordagem via risquificação, adotada na nova regulamentação da EU, o "AI Act", e no anterior "White Paper on AI", trazendo diversos níveis de risco quanto a aplicações de IA. Um dos pontos a se refletir é se um patamar estabelecido a priori e de forma fixa quanto aos diversos níveis de risco, e não uma abordagem mais flexível, diante do caso concreto, seria a melhor abordagem. Ao invés de pensamos acerca da essência da técnica objeto de reflexões por parte de Heidegger desde 1949 ("A questão da técnica"), em um sentido apenas distópico, como parte dos dispositivos do biopoder ou do capitalismo de dados, visa-se refletir acerca da tecnodiversidade e da cosmotécnica, reconhecendo a existência de um pluralismo tecnológico e ontológico (Yuk Hui), repensando-se a descolonização a partir da perspectiva da tecnopolítica.  Trata-se da insuficiência de uma visão apenas eurocêntrica e antropocêntrica para se pensar acerca da IA, tal como se verifica a exemplo das próprias Declarações Universais dos Direitos Humanos construídas sob uma ótica hegemônica ocidental, não considerando as contribuições das Epistemologias do Sul. Há uma crise quanto aos direitos humanos, e um retrocesso em termos de conquista de direitos e preocupações humanitárias, a exemplo da Declaração de Filadélfia e de Marrakesh, enfatizando-se uma concepção proprietária e econômica do trabalho, considerando como mercadoria, relegando a um segundo plano os direitos sociais, sendo corroborada pela recente jurisprudência "Viking"da Corte Europeia (Processo C-438/05, International Transport Workers' Federation, Finnish Seamen's Union contra Viking Line ABP). Seria um retorno sub-repti'cio ao sistema feudal, ao reino da personalidade das leis, ocorrendo a pulverizac¸a~o dos direitos humanos? A pec¸a de teatro "O Rei da Vela" de Oswald de Andrade, em cartaz em 2018 no TreatroOficina, dirigido e atuado por Jose' Celso Martinez Correa, apo's sua estreia e temporada origina'rias meio se'culo antes, um divisor de a'guas na histo'ria de nossa dramaturgia, em pleno regime ditatorial, traz a visão do Brasil como um pai's feudal, onde o cobrador do a'gio vira rei da vela ao explorar a pobreza dos devedores negociando os juros da dívida com um chicote.  É o reflexo da existência de um mercado legislativo planeta'rio, com as tradic¸o~es juri'dicas sendo postas em concorre^ncia umas com as outras, potencializado pela instrumentalizac¸a~o do Direito pelo ca'lculo, pela estati'stica, pelo pensamento cartesiano que entende ser suficiente a matematização do mundo. Daí se falar da necessidade de uma nova compreensão e da reinvenção dos Direitos Humanos, no sentido de integrar a diversidade cultural e as diversas concepções de justiça e de dignidade humana, a exemplo, das noc¸o~es de "dharma" Hindu, de "umma" isla^mica, de "pachamama" ou o "buen vivir" dos povos indi'genas da Ame'rica Latina, do "ubuntu africano", do "Sumak Kawsay", do "Sumak Qamana~", a partir de uma nova concepc¸a~o de comunidade, como na Constituic¸a~o do Equador de 2008, à luz do constitucionalismo transformador.  Tais propostas refletem o respeito à diferença, o respeito pela igualdade na diferenc¸a, por meio de um processo poli'tico participativo, trazendo a possibilidade de recuperac¸a~o da cidadania anestesiada ou passiva, transformada em uma cidadania ativa, como exerci'cio de direitos humanos, com destaque para a importância dos partidos-movimento, ou movimento-partidos, os protestos multitudina'rios globais como novos ativismos, movimentos multissetoriais, "multido~es inteligentes", ou "smart mobs", como o partido "Aam Aadmi Party" (AAP) em Nova Delhi, o "5 Stelle" na Ita'lia, o "Podemos" na Espanha e o movimento "Primavera A'rabe". Outros movimentos paradigma'ticos sa~o os na A'frica do Sul denominados "(hashtag)RhodesMustFall" e "(hash- tag)FeesMust-Fall", movimentos populares na Ame'rica Latina, relacionados ao direito a` educac¸a~o, tais como, os protestos estudantis no Chile, as novas demandas por universidades no Equador, as experie^ncias com instituic¸o~es e conhecimentos indi'genas nos Andes, e a ocupac¸a~o de escolas por estudantes secundaristas no Brasil.  Uma renovação do pensamento jurídico à luz de uma Teoria (Fundamental) do Direito digital e da IA, a fim de se possibilitar um maior respeito aos Direitos Fundamentais, voltando-se a uma visa~o dina^mica do ordenamento juri'dico, a partir de uma considerac¸a~o contextualizada, caso a caso, assegurando-se um procedimento isento, de modo a alcanc¸ar deciso~es aptas a equalizar todos os interesses e/ou valores em conflito, ante as mu'ltiplas possibilidades de soluc¸a~o.  Uma filosofia da IA com base nos valores do "homo poietico", uma filosofia liberta do binômio aprisionador sujeito-objeto, comprometida com o múltiplo e o acategórico, no sentido de libertar a diferença, que é o elemento essencial quando se fala em recuperação de diversas características essencialmente humanas. Uma leitura e compreensão poéticas, que levem em conta o não dito, o resto, a heterotopia no sentido foucaultiano, um espaço-outro (Tese de doutorado em Filosofia, Paola Cantarini, PUCSP, 2021, "O teatro Filosófico de Foucault e o Direito").  Foucault valoriza a fluidez e a "sfumato poética", técnica utilizada para as pinturas, criando-se uma zona indistinta, provocando uma vibração emotiva que instaura uma atmosfera propícia ao poético, valorizando a energia não verbal, conferindo à experiência estética e ao imaginário um papel privilegiado. No lugar da pretensão de clareza e objetividade, em um discurso neutro e inodoro, típicos do pensamento científico do cálculo, que se tenha a "obscuridade púrpura".  Tal proposta hermenêutica visa alcançar a perspectiva poética, e não linear, não bidimensional, não polarizada, mas holística e inclusiva, e a favor de se repensar as ambivalências e contradições, voltando-se para uma compreensão que passa pelo pensamento filosófico polifônico, do múltiplo, como uma pragmática do múltiplo, um pensamento plural, aproximando-se do que Luciano Floridi (The Logic of Information: A Theory of Philosophy as Conceptual Design) aponta como uma lógica de design a ser desenvolvida, como fundamento de uma Filosofia da IA, com base nos valores do "homo poietico". Uma mudança de uma compreensão do conhecimento representacionalista (mimético) para um construcionista (poiético), da mimesis à poiesis, numa interpretação poiética dos nossos conhecimentos, desenvolvendo uma lógica de "fazer", de design dos artefatos semânticos para os quais nós somos epistemicamente responsáveis.   
O projeto de lei 21/20 que cria o marco legal do desenvolvimento e uso da Inteligência Artificial (IA) ao lado da Estratégia Brasileira de IA no Brasil, instituída pela Portaria MCTI 4.617/21, são importantes iniciativas de regulamentação da IA no Brasil, já que cada vez mais se fala no fim da era dos códigos de conduta (autorregulação), como bem aponta Luciano Floridi, no recente artigo "The end of an era: from self-regulation to hard law for the digital industry", bem como na insuficiência e ineficácia de princípios éticos além de poderem propiciar a denominada "lavagem ética". A regulamentação jurídica é um importante passo no sentido, pois de contribuir para a necessária segurança jurídica, o que é um fator de decisão para investimentos no país, contribuindo para o desenvolvimento tecnológico, e no sentido de transformar princípios éticos em determinações cogentes e concretas (University of Harvard, Principled Artificial Intelligence: Mapping Consensus in Ethical and Rights-Based Approaches to Principles for AI). Contudo, o PL tem sido objeto de diversas críticas, diante de algumas falhas e omissões, imprecisões técnicas, ausência de obrigações substantivas e processuais, ausência de parâmetros mínimos de procedimentalização e previsão de instrumentos de governança algorítmica. Houve um curto período de tempo para contribuições por parte da sociedade civil, ao contrário, por exemplo, do Marco Civil da Internet, Lei 12.965/2014, o qual contou com um período bem mais extenso de discussão democrática e inclusiva, sendo essencial um amplo período de debate envolvendo diversos grupos da sociedade civil, trazendo ao diálogo os grupos vulneráveis.  O artigo 6º do PL traz uma abordagem equivalente à previsão da LGPD em seus artigos 10, § 3º e artigo 20, § 1º e § 2º, prevendo a "garantia de transparência sobre o uso e funcionamento dos sistemas de inteligência artificial e de divulgação responsável do conhecimento de inteligência artificial, observados os segredos comercial e industrial, e de conscientização das partes interessadas sobre suas interações com os sistemas, inclusive no local de trabalho".  Como equilibrar via ponderação a necessária observância do segredo industrial e comercial que envolve os programas de computador e os algoritmos de IA, a proteção via propriedade intelectual, com os demais direitos fundamentais envolvidos e em colisão? Ao se analisar de forma literal e gramatical as disposições da LGPD (artigos 10, § 3º e artigo 20, § 1º e § 2º) e do PL 21/20 (art. 6) pode-se chegar à equivocada conclusão de que o segredo industrial/comercial sempre irá prevalecer, mesmo diante de casos de colisão com direitos fundamentais, devendo também ser analisados os princípios da transparência e da explicabilidade. É importante se optar por uma abordagem sistêmica, e funcional, e à luz da teoria dos Direitos Fundamentais, ao invés de uma interpretação literal e gramatical, analisando-se todos os direitos fundamentais em colisão e a melhor forma de respeito mútuo e compatibilidade, sem que jamais se fira o conteúdo essencial de qualquer direito fundamental a ponto de aniquilar o mesmo. Como observar o princípio da explicabilidade, e tornar efetivos os direitos à explicação e à revisão de uma decisão automatizada, sem acesso aos parâmetros da tomada de decisão, sendo em alguns casos necessária a quebra do código fonte, a fim de melhor compreender os aspectos da decisão, envolvendo, pois, os aspectos da acessibilidade e compreensibilidade?  No recente livro "The rise of big data policing: surveillance, race, and the future of law enforcement", Andrew Guthrie Ferguson aponta para algumas perguntas que deveriam pautar a utilização de algoritmos, tais como: é possível defender os inputs do sistema (acurácia dos dados e idoneidade da metodologia)? É possível defender os outputs do sistema e como eles impactarão as políticas em prática e as relações comunitárias? É possível testar a tecnologia, oferecendo accountability e alguma medida de transparência?  É fundamental uma análise crítica e interdisciplinar acerca de tais questões de forma a equilibrar a inovação e a responsabilidade, contribuindo por um lado para o desenvolvimento da tecnologia e de investimentos no país, e de outro lado, com o necessário respeito aos direitos fundamentais. Segundo Wolfgang Hoffmann-Riem, a proteção adequada no caso em questão poderia ser possibilitada pela introdução nos tribunais dos denominados procedimentos sigilosos; as empresas são obrigadas a revelar ao tribunal os algoritmos, em particular algoritmos que podem ser utilizados para pôr em perigo a liberdade, divulgando as máximas e os critérios em que se baseiam, a informação utilizada como input e, no caso dos sistemas de aprendizagem, as regras de formação utilizadas, se necessário também o tipo de utilização da análise de Big Data. Tais informações não deverão tornar-se públicas, limitando seu acesso ao órgão julgador, sendo inacessíveis até mesmo às partes no processo.  A fim de se alcançar um sistema de proteção proativo, abrangente e sistemicamente seguro, uma proteção sistêmica, destaca-se cada vez mais a proteção desde a concepção tecnológica (protection by design), envolvendo a criação de arquiteturas de decisão adequadas à proteção com o auxílio da concepção e de ferramentas tecnológicas, como forma de se implementar a segurança (security by design), falando-se em transparência do design tecnológico, mais ampla do que apenas transparência na coleta e tratamento de dados pessoais, abrangendo a transparência do design tecnológico (o projeto técnico) e dos algoritmos utilizados. No entanto, como bem aponta Wolfgang Hoffmann-Riem, a proteção dos segredos comerciais é contrária ao dever de divulgação. Bruno Bioni afirma que "a explicação seria uma ferramenta de accountability de IA ao expor a lógica da decisão, devendo permitir ao observador determinar a extensão em que um input particular foi determinante ou influenciou um resultado. Entretanto os segredos comercial e industrial constituem objeções à transparência". Importante julgado conhecido como caso "Schufa", da lavra do Tribunal Federal de Justiça da Alemanha reconheceu, em princípio, a proteção ao segredo comercial em uma decisão sobre a pontuação do SCHUFA, envolvendo a classificação de crédito, sem levar em consideração que a proteção de segredos oficiais/industriais, não constitui um fim em si mesmo, mas exige igualmente uma coordenação com a proteção de pessoas e de interesses jurídicos diversos. Wolfgang Hoffmann Riem afirma que referida decisão não cumpriria com os requisitos do Capítulo III RGPD/GDPR. Pontua, todavia, que a divulgação do design tecnológico e dos sistemas algorítmicos utilizados iria, por outro lado, interferir demasiado com a autonomia das empresas e afetar os seus legítimos interesses, permitindo o acesso dos algoritmos pelos concorrentes. A quebra do segredo industrial seria justificada no caso de direitos fundamentais, em especial para evitar discriminação, estigmatização e manipulação, ou diante de outro interesse legítimo na divulgação equivalente à proteção de um segredo comercial.  O direito à informação, previsto no art. 6º, VI da LGPD compreenderia o acesso e esclarecimento quanto aos aspectos principais e a lógica da decisão algorítmica - e, especialmente os critérios de decisão -, de modo a ter, em princípio, a preservação do segredo de empresa, já que não seria necessário revelar o código fonte do algoritmo, mas os aspectos mais relevantes da decisão algorítmica. Contudo, em alguns casos concretos talvez seja necessário o acesso ao código fonte, sendo certo que até mesmo a Lei de Propriedade Industrial abre exceções ao segredo comercial no caso de ações judiciais, desde que respeitado o segredo de justiça.  Entendemos, no entanto, que deverá ser analisado o caso concreto mediante o procedimento de ponderação e aplicação da proporcionalidade (art. 206, da LPI), já que nem sempre no Brasil o segredo de justiça é respeitado, analisando-se a realidade sociocultural do país, de modo a não inviabilizar a atividade econômica, nem tampouco afrontar aos demais direitos fundamentais em colisão. Mutatis mutandis, o princípio da proporcionalidade vem sendo aplicado em tais casos, encontrando previsão na jurisprudência internacional e em documentos legislativos relacionados à proteção de dados e ao big data, estando tais temáticas intimamente relacionadas com a IA, como pode se observar do art. 8º da Carta de Direitos Fundamentais da União Europeia, de 07.12.2000, do Regulamento Europeu de Proteção de Dados - GDPR 2016/679 do Parlamento Europeu e do Conselho Europeu, revogando a Diretiva 95/46/CE, em seu item 1 e 4, bem como do documento "Adecuación al RGPD de tratamientos que incorporan Inteligencia Artificial" da Agência Espanhola de Proteção De Dados (AEPD) de 02/2020, e da Resolução 1-2020 da Comissão Interamericana de Direitos Humanos (CIDH) denominada "Pandemia y derechos humanos em las Américas" de 10/04/2020, item 21. O Conselho da União Europeia apresentou no final do ano passado  a primeira versão de um projeto para regulação  horizontal da Inteligência Artificial, com requisitos mínimos,  fundada em dois argumentos principais,  que considera falhas de mercado  no sentido de buscar uma aceitação mais ampla da  tecnologia de IA, a falta de transparência para sua  aplicação voltada a corporações, sistemas públicos e usuários , a chamada assimetria de informações, e riscos de segurança que essa tecnologia poderia trazer no contexto de seu uso, sendo que tanto pode apresentar efeitos  não intencionais, como podem ter fins maliciosos. Na verdade, a preocupação da Europa está focada nas chamadas aplicações de alto risco da IA, sendo que as empresas sediadas fora da UE estarão sujeitas à regulamentação e valores europeus, quando fornecerem tecnologia de IA para seus cidadãos. Não se sabe, porém,  se a União Europeia terá força para impor um padrão global na regulação da IA, o que poderá definir o futuro dessa tecnologia. Por derradeiro, cumpre lembrar a relação da proporcionalidade com a fórmula jurídica e política do Estado Democrático de Direito, o qual depende de procedimentos, especialmente os judiciais, para que se dê sua realização, sendo a proporcionalidade de se considerar um desses procedimentos, merecedor de todo destaque. Isto porque a proporcionalidade encontra íntima relação com a ideia de procedimentalização do Direito, legitimidade do direito pelo procedimento, judicialização do ordenamento jurídico (espaço público para discussão, amplo debate, publicidade, e isonomia) (Luhmann, Habermas, R. Wiethölter e John Rawls). Neste sentido, pode-se interpretar a falta de fundamentação por parte da crítica à ponderação, no sentido de não ter qualquer vínculo com procedimentos, e não oferecer a dinamicidade necessária para a resolução de conflitos em nossa sociedade altamente especializada e amparada em uma crescente complexidade e majoração frenética da aceleração do tempo. É antes, muito pelo contrário, ela que permite, em face de tal complexidade aceleração temporal, produzir a necessária escansão temporal para o confronto das diversas posições, assim permitindo atingir a solução que melhor compatibilize os princípios e direitos fundamentais em colisão, sem cancelar nenhum, a título de ponderação, pois todos remetem, em última instância, à dignidade humana.