COLUNAS

  1. Home >
  2. Colunas

IA em Movimento

Debate sobre a Inteligência Artificial e questões como privacidade, opacidade e preconceito, interação humano-robô, emprego e algoritmos, ética no desenvolvimento e aplicação dos sistemas de IA.

Ricardo Freitas Silveira e Fabio Rivelli
terça-feira, 24 de maio de 2022

IA avança na Justiça e em outras frentes

De forma inédita, o  STF começou a utilizar uma ferramenta de Inteligência Artificial, a RAFA 2030 (Redes Artificiais Focadas Na Agenda 2030) para promover a classificação dos processos judiciais com base nos 17 Objetivos de Desenvolvimento Sustentável (ODS) da Agenda 2030 da ONU, no sentido de poder priorizar e vencer os desafios de um mundo mais sustentável e equânime. Esse é um exemplo bem próximo das infinitas possibilidade que a  IA pode oferecer, contribuindo com o ecossistema judicial, nesse caso voltado a propiciar mais eficiência no cruzamento de ações e os 17 ODS's: erradicação da pobreza, fome zero e agricultura sustentável, saúde e bem-estar, educação de qualidade, igualdade de gênero, água potável e saneamento, energia acessível e limpa, trabalho decente e crescimento econômico, indústria, inovação e infraestrutura, redução das desigualdade, cidade e comunidade sustentáveis, consumo e produção responsáveis, ação contra mudança global do clima, vida na água , vida terrestre, paz, justiça e instituições eficazes, parcerias e meios de implementação. A inteligência artificial (IA) constitui a soma da utilização da grande massa de informações (big data) e o conjunto de instruções para realizar uma tarefa, produzindo um resultado final, tudo em uma equação matemática, o algoritmo. A versão singular da máquina ainda está longe de existir, é a máquina dos padrões de escolha absolutamente autônomos, os padrões assinalados por Yuval Noah Harari "Sapiens - A Brief History of Humankind", adaptados para reconhecer a mesma capacidade que o ser humano tem para processar suas intuições, o que levaria à catástrofe: "a revolução tecnológica pode em breve excluir bilhões de humanos do mercado de trabalho e criar uma nova e enorme classe sem utilidade, levando a convulsões sociais e políticas com as quais nenhuma ideologia existente está preparada para lidar." Contudo, o emprego da IA parece não ter limites. Na Índia, vem sendo utilizada uma ferramenta de IA, chamada Supace (Supreme Court Portal for Assistance in Court's Efficiency) que tem várias funções, inclusive auxiliar na tradução  de julgamentos para idiomas regionais, o que aumenta o acesso à justiça, tornando o trabalho do tribunal mais rápido e eficiente. Contudo, paralelamente ao incremento do uso de IA, crescem as preocupações com a proteção de dados e privacidade, além da garantia dos direitos humanos. Na Estônia, para eliminar o acervo de processos, já  está em operação o juiz de IA  para julgar disputas de pequenas causas, abaixo de 7 mil euros. Igualmente no Canadá, a IA tem sido empregada para resolver disputas de baixo valor. Há muita polêmica em torno deste uso, mas torna-se igualmente  importante testar a IA para ver se os resultados refletem justiça e transparência no andamento processual, além de reduzir custos e tempo dos processos.  Em outros setores, a IA está igualmente ganhando diferentes usos. A empresa Ghostrobotics, por exemplo, desenvolveu o cão robô para uso militar, semelhante a um cachorro, tem quatro "patas", pode andar em terrenos sinuosos, subir e descer, monitorar incansavelmente regiões de risco, desativar bombas e atuar em substituição ao soldado em diversas tarefas, evitando colocar em risco o militar. Os drones possibilitam também o monitoramento de áreas de difícil acesso e evitam riscos, são utilizados em dezenas de tarefas inclusive de transporte, mas erros aconteceram, em 2021 um show de luzes na China com drones teve problemas técnicos e dezenas caíram nos espectadores; os Estados Unidos admitiram um ataque com drones em local errado matando 10 civis no Afeganistão. Passando para o uso de algoritmos de geolocalização, a Predpol promete revolucionar a segurança das regiões contratadas pela empresa, com base nas ocorrências policiais o algoritmo prevê a incidência do próximo crime: o que; onde e quando acontecerá, simplesmente pela estatística avançada na análise preditiva. O uso das ferramentas de biometria é controverso e precisa ser analisado à luz da Lei Geral de Proteção de Dados, mas foi utilizado em Moscou para pagamento de metrô, o Face Pay, lançado em 2021.   São Paulo prevê a instalação de câmeras de reconhecimento facial para auxiliar na redução da criminalidade. Um procurado por homicídio foi reconhecido por uma câmera de reconhecimento facial no Carnaval de Salvador, em 2019. Isso é somente o começo porque a máquina pode aprender com a experiência à medida que recebe mais dados, o que também ajuda a reduzir os vieses. A linguagem corporal padrão de alguém que comete um delito pode ser identificada através de uma nova tecnologia japonesa de câmeras que detectam os movimentos e o algoritmo avalia se haverá um delito, é a análise preditiva em ação. Em 2018, uma reportagem do The Economist, em parceria com O Estado de S. Paulo, publicou uma matéria dizendo que computadores têm sido utilizados para ajudar em decisões judiciais nos Estados Unidos, porém, o que dizer do caso do cidadão afro-americano Robert Julian-Borchak Williams, detido, preso e acusado injustamente por um sistema de algoritmo de inteligência artificial. No Jornal El País, a manchete, "os robôs sexuais já estão aqui. Deveria haver leis que os regulem?", são os sexbots, como ficam a ética e a privacidade diante de um robô com formas infantis? Em contrapartida aos exemplos citados , todos aptos a uma sabatina de análises técnicas envolvendo legislação, ética e privacidade, a máquina traz benefícios em diversos setores, inclusive os citados além da educação; medicina; diagnóstico; gestão; segurança entre outros, o relógio mais recente da Apple salvou a vida de um americano ao detectar uma embolia pulmonar. Diante do avanço exponencial da tecnologia e suas aplicações para que se possa evitar os erros e utilizar de maneira correta, o desafio é a regulamentação. Diversas iniciativas vêm sendo aplicadas para prevenir e evitar que os mecanismos de decisão adotem padrões incorretos, até mesmo discriminatórios. Os programadores do Reino Unido têm o código de ética para o desenvolvimento prevendo em poucas palavras que se evite a predição incorreta incluindo um humano sempre que possível; o monitoramento das ferramentas deve permitir a compreensão do que está sendo decidido e, por fim, deve permitir a transparência nas decisões. A Microsoft também publicou os princípios da IA contendo justiça; confiabilidade e segurança; privacidade; inclusão; transparência e responsabilidade. A Comunidade Europeia publicou as diretrizes para uma IA de confiança "Ethics Guidelines for Thustworthu AI", basicamente prevendo a intervenção e supervisão humana; robustez e segurança e a privacidade e governança de dados. O Senado Americano tem como base o manual de ética em IA para aplicação a todos os projetos de IA não aceitando modelos sem explicação e que sejam compreendidos quais dados são utilizados. Aqui, no Brasil, um passo foi dado, além da Lei Geral de Proteção de Dados, com  o Marco Legal da IA, estabelecendo a criação do relatório de impacto de IA e seus agentes, projeto inspirado na Recomendação sobre Inteligência Artificial da Organização dos Estados para o Desenvolvimento Econômico (OCDE). A  IA pode ser usada em benefício da sociedade, seguindo os padrões ESG (melhores práticas ambientais, sociais e de governança) e em busca do atingimento das metas da Agenda 2030 da ONU,  através da governança focada nas pessoas e na sustentabilidade em busca da prosperidade para todo o mundo.
terça-feira, 3 de maio de 2022

Desenvolvimento da IA e interesse público

Há muita polêmica acerca da  proposta pioneira da Comissão Europeia para regular a Inteligência Artificial (AI Act)¹, uma vez que o viés escolhido foi da aplicação dos riscos, consolidado desde o primeiro estudo nesse sentido, contido nas sugestões prévias do White Paper de 2020. A crítica está centrada no desequilíbrio dessa balança de regulação, que coloca em um prato os direitos fundamentais dos usuários e a  proteção de seus dados pessoais e no outro, os interesses do Poder Públicos e de empresas. A avaliação de riscos da IA aos direitos humanos na esfera pública deveria ter um peso maior. A utilização dos sistemas de IA nos serviços públicos e processos administrativos se justifica no sentido de serem empregados como instrumentos para facilitar a tomada de decisões de gestores públicos e  para agilizar os serviços prestados aos cidadãos, observando seus direitos fundamentais. Além do Judiciário brasileiro, uma série de órgãos públicos tem sua inteligência artificial, como a Dataprev, responsável pelo processamento de todos os dados pessoais e sociais da população brasileira, que utiliza o Isaac, voltado a agilizar a análise de processos do Instituto Nacional do Seguro Social (INSS) . A Datraprev, a exemplo de outras empresas públicas, vem ampliando o desenvolvimento da  IA em outros serviços. A tecnologia de IA vem se desenvolvendo em todas as áreas do conhecimento humano e a proteção legal terá dificuldade em acompanhar o ritmo de expansão dessa tecnologia e seus possíveis impactos sociais, éticos e jurídicos. A  Resolução 332/20 do Conselho Nacional de Justiça³, por exemplo,  traz como conceito de inteligência artificial , um  "conjunto de dados e algoritmos computacionais, concebidos a partir de modelos matemáticos, cujo objetivo é oferecer resultados inteligentes, associados ou comparáveis a determinados aspectos do pensamento, do saber ou da atividade humana". Podemos, também, sintetizar o conceito de  IA como sendo a soma da utilização de grande massa de informações (big data) e o conjunto de instruções para realizar uma tarefa, produzindo um resultado, tudo em uma equação matemática, o algoritmo. No Brasil, o Marco Legal do Desenvolvimento da Inteligência Artificial (PL 21/20)² foi aprovado no ano passado e, a despeito de ser considerado generalista, trouxe segurança jurídica ao consolidar fundamentos, objetivos e princípios gerais  para o uso da IA no país.  No art.12, o Marco Regulatório aponta que que o Poder Público deve facilitar a adoção de sistema de IA à  Administração pública e na prestação de serviços públicos. O uso da IA na esfera pública está diretamente imbricada na observância dos direitos fundamentais dos cidadãos. No capítulo sobre Direitos Fundamentais da proposta  do Regulamento do Parlamento Europeu  sobre IA  explicita essa preocupação:" A utilização da IA com as suas características específicas (por exemplo, opacidade, complexidade, dependência de dados, comportamento autónomo) pode afetar negativamente vários direitos fundamentais consagrados na Carta dos Direitos Fundamentais da UE . A presente proposta visa assegurar um elevado nível de proteção desses direitos fundamentais e visa abordar várias fontes de riscos através de uma abordagem baseada no risco claramente definida". A mitigação de riscos é importante, mas vem sendo questionada enquanto cerne  da nova regulamentação europeia,  principalmente diante das decisões automatizadas dos sistemas de IA. No Brasil, embora a  Lei Geral de Proteção de Dados (lei 13.709/18), não discipline o uso da IA, traz no art.20 os parâmetros de seu uso: "O titular dos dados tem direito a solicitar a revisão de decisões tomadas unicamente com base em tratamento automatizado de dados pessoais que afetem seus interesses, incluídas as decisões destinadas a definir o seu perfil pessoal, profissional, de consumo e de crédito ou os aspectos de sua personalidade". Dentre os principais riscos do desenvolvimento da IA está a violação ao direito à privacidade e proteção de dados, especialmente no caso de eleições, com o uso de robôs (social media bots) que  conseguem interagir com outros usuários  e influenciar nos principais debates que podem decidir um pleito presencial, sem falar das chamadas "bolhas ideológicas" por meio das quais os usuários só entraram em contato com publicações que expressem as opiniões que tenham similaridades às suas. Esses tipos manipulações constituem  um risco paras as eleições livres e a democracia O ideal da regulação vem sendo a  defesa dos direitos fundamentais. Um dos desafios dessa perspectiva está no projeto polêmico , chamado iBorderCtrl, que emprega IA para analisar microexpressões de pessoas nas fronteiras europeias, buscando detectar se o indivíduo abordado está mentindo  ou não ao responder a  um script definido. É a nova versão do detector de mentiras , que usa tecnologia avançada de IA, mas é um projeto considerado de pouca transparência, que vem sendo questionado. Outro exemplo de sistema de IA considerado de risco e que visa à vigilância em massa é o SyRI do  governo holandês. Este sistema  de investigação algorítmica detecta suspeitas de fraude em benefícios, subsídios ou impostos, sendo que os cidadãos não são avisados do procedimento, mesmo tendo seus dados sensíveis tratados, uma vez que  envolvem informações relativas a trabalho, propriedade, dívidas, aposentadoria isenções etc. Falta, portanto, transparência , o que demandou uma campanha pública chamada " Suspeito desde o início".  Uma das funções SyRI  mais questionadas era busca detectar fraudes nos subsídios  de aluguel social por meio da mensuração do uso de água corrente.  Quando muito baixo, depreende-se que o beneficiado  não estaria mais naquele endereço , mas continuaria usufruindo dos benefícios de forma fraudulenta. Contudo, outros fatores podem explicar esse baixo consumo, como reaproveitamento da água da chuva. Essa ação atingia prioritariamente bairros de baixa renda, o que já constitui uma discriminação social, embora a justificativa do poder público tenha sido de melhorar a qualidade de vida dessa população. O SyRI foi suspenso pelo Tribunal holandês de Haia por violar o art. 8 da Convenção Europeia de Direitos Humanos , que trata dos sistemas de IA de alto risco, que estabelece a observância de quatro pontos: identificação e análise dos riscos conhecidos e previsíveis, avaliação de acordo com a finalidade a que se destina o sistema de IA, avaliação de outros riscos com base na análise de dados recolhidos no sistema e adoção de medidas de gestão de risco, com base nos efeitos e possíveis interações. No uso da tecnologia de IA na área pública, um ponto fundamental é aplicar uma legislação transparente , assegurando a privacidade dos dados pessoais dos cidadãos e que, ao mesmo tempo, responda se  observa os  marcos de direitos humanos  que propiciam as salvaguardas necessárias. A questão da vigilância em massa  estatal com uso da IA teve no Reino Unido um exemplo bem claro , com a criação em  2016 da Lei de Poderes de Investigação, que admitia a coleta de dados em massa, que vieram a público pela denúncia de Edward Snowden, que apresentou documentos sobre a agência de inteligência britânica GCHQ, que utiliza programa de espionagem para armazenamento de dados em massa de todo tráfego da internet e repositório de mis de 1 trilhão de eventos (e-mails, mensagens instantâneas, mídia social etc.). Contudo, em 2018, o Tribunal Europeu de Direitos Humanos decidiu que  esse programa de interceptação de massa violava a Convenção Europeia de Direito Humanos e é considerado o primeiro julgamento sobre a matéria que colocou um freio ético no uso da IA na esfera pública. No Regulamento do Parlamento Europeu , o poder público e empresa parceiras  também não estarão escudados pela caixa preta da "segurança nacional" para  evitar comunicar incidentes no âmbito da IA.  Segundo o art. 62, os fornecedores de sistemas de IA de alto risco  ( identificação .biométrica, gerenciamento e operação de infraestrutura crítica; emprego, gestão de obras e acesso ao trabalho autônomo; acesso a serviços e benefícios públicos; migração, asilo e gestão de controle de fronteiras; administração da justiça etc.) devem  comunicar as autoridades de fiscalização qualquer incidente ou avaria  que venha a violar direitos fundamentais. A notificação deve ser feita tão logo se estabeleça o  nexo de causalidade entre o sistema de IA e o incidente ou avaria. Os arts 22  e 23 do Regulamento enfatizam o dever de informação e cooperação com as autoridades. Como já afirmava o Conselho de Direitos Humano da ONU em 2016, " os direitos humanos que as pessoas têm off-line devem também ser protegidos on-line".4 _____________ 1 Proposta do Regulamento do Parlamento Europeu sobre IA. Disponível aqui 2 Disponível aqui. 3 Disponível aqui. 4 Disponível aqui.
Introdução Vivemos na sociedade da informação, sociedade de dados e sociedade 5.0 (Japão), atrelada aos conceitos de pós-humanismo e de transumanismo, falando-se ainda em "virada do não humano", um conceito macroscópico segundo Grusin, trazendo repercussões sociais de alta magnitude1, com foco no descentramento do humano da biosfera, para se tornar verdadeira força geológica, a provocar a era do antropoceno. Surgem ao mesmo tempo novos desafios e oportunidades com as novas tecnologias na interface com as humanidades, em especial com a utilização da chamada inteligência artificial (IA), sendo certo que as diretrizes éticas devem ir de mãos dadas com as questões legais, no âmbito da governança de algoritmos. O Projeto de Lei 21/20 que cria o marco legal do desenvolvimento e uso da Inteligência Artificial (IA) é uma importante iniciativa de regulamentação da IA no Brasil, ao lado da Estratégia Brasileira de IA no Brasil, Instituída pela Portaria MCTI nº 4.617, de 6 de abril de 2021, apesar de algumas falhas e omissões, imprecisões técnicas, ausência de obrigações substantivas e processuais, ausência de parâmetros mínimos de procedimentalização e previsão de instrumentos de governança algorítmica,  em especial se comparamos com as regulamentações internacionais. Há também uma falha a ser destacada no tocante ao processo democrático de deliberação, já que houve um curto período de tempo para contribuições por parte da sociedade civil, ao contrário, por exemplo, do Marco Civil da Internet, lei 12 965/2014, o qual contou com um período bem mais extenso de discussão democrática e inclusiva. Um amplo período de debate envolvendo diversos grupos da sociedade civil é essencial e possui relação com o conceito de ética digital intercultural, trazendo ao diálogo os grupos vulneráveis e todos os setores da sociedade. Justamente ética digital intercultural e o estabelecimento de frameworks concretos para tradução de princípios éticos abstratos em práticas concretas são pontos a serem desenvolvidos, devendo contar com a contribuição de uma equipe interdisciplinar e multistakeholder, e, sobretudo, independente. O Projeto de Lei 21/20 que cria o Marco Legal da IA no Brasil é uma importante iniciativa no sentido de regulamentação da IA, já que cada vez mais se fala no fim da era dos códigos de conduta (autorregulação), como bem aponta Luciano Floridi, no recente artigo "The end of an era: from self-regulation to hard law for the digital industry".2 Isto porque a autorregulação pelas empresas, não seria eficaz nem tampouco contribuiria para o aspecto da confiança, já que muitas vezes tal iniciativa colide com a busca de fins públicos e com a proteção de direitos fundamentais e humanos, voltando-se primordialmente para os valores de mercado, não sendo iniciativas pautadas na transparência e imparcialidade. Em muitos casos há aqui uma concepção proprietária dos diretos envolvidos, a busca da inovação e de valores econômicos acima de outros valores democráticos, envolvendo a elaboração de conteúdo unilateral e seletivo em termos de interesses, na linha de uma análise econômica do Direito, voltada para eficiência do mercado. Clique aqui e confira a coluna na íntegra. __________ 1 Grusin, Richard. Introduction. In: Grusin, Richard (org). The nonhuman turn. Minneapolis, mn: University of Minnesota Press, 2015. p. vii-xxxi, Grusin, 2015, Conferência realizada em 2012, "A Virada do Não Humano nos Estudos do Século XXI", Center for 21st Century Studies, Universidade de Wisconsin-Milwaukee. 2 Floridi, Luciano, The end of an era: from self-regulation to hard law for the digital industry (November 9, 2021). Available at SSRN.
terça-feira, 5 de abril de 2022

Metaverso e gamificação da vida

De que forma o surgimento de novas formas de representação do mundo, no sentido de um empoderamento através e por meio das tecnologias, não apenas vendo o lado negativo e os problemas, mas alternando o foco no sentido de encontrar uma solução para os problemas que as novas tecnologias nos colocam em conjunto com a crise ambiental e de sentido, podem contribuir para uma multiplicidade de alternativas? Como expõe Yuk Hui ("Technodiversity", Ubu Editora, 2020, p. 154), o reconhecimento da existência da cosmotécnica, da diversidade técnica, podem ajudar no empoderamento ao invés do enfraquecimento humano? Ou tal visão seria utópica demais, ao se considerar que qualquer modelo e espécie tecnológica estariam aprisionadas dentro do sistema poder-saber, envolvidas nas redes de poder, restando muito pouco espaço para a resistência, mesmo sabendo que onde há poder também há resistência (Deleuze)? A realidade virtual (XR) seria como sonhar com os olhos abertos, gerando uma intensa experiência que seria absorvida e experienciada como "presença"? (Kai-Fu Lee. "AI 2041". Ebbok, Apple). Tais questões são inseparáveis, a ética da IA e a dinâmica do poder, já que o poder "providencia os meios para influenciar quais casos são relevantes, quais problemas são prioritários e a quem as ferramentas, os produtos e os serviços são feitos para servir" (JOHNSON, Khari. AI ethics is all about power. Em https://venturebeat.com/2020/02/21/google-launches-tensorflow-library-for-optimizing-fairness-constraints/, 2019. Acesso: 10/08/2021). Como o resistir poderá perdurar no tempo e se multiplicar permanecendo resistência e não ser aglutinada no sistema dominante, retroalimentando o sistema, virando também um produto de consumo? O dobrar, a superdobra no sentido de se pensar o lado de fora, uma nova linha de fuga, a experiência do fora como uma forma de resistência, trazendo a possibilidade de novos devires. Uma reconversão do pensamento (metanoia) é do que se trata, no sentido de se escapar do modo de ser do discurso da representação, e trazer a possibilidade de novas subjetividades. Buscar a experiência do fora no sentido de colocar o sujeito como objeto para si mesmo, projetado para fora de si, e com isso conseguir voltar a si mesmo, através de um esquecimento. Para Foucault, a resistência é uma ação política revolucionária, capaz de questionar ou pelo menos refletir e ter consciência sobre os regimes de verdade e dispositivos de poder, sendo o artista considerado como um intercessor. Intercessor, nos dizeres de Gilles Deleuze, é o movimento, a força da alavanca, ao contrário da força da onda, que logo se esvai. O intercessor é aquela figura (na filosofia, nas artes, nas ciências) que, mediante o que pensa, o que cria ou inventa, instala, no cenário da vida, um distúrbio, à altura de forças um passo à frente. Em outros termos, o intercessor obriga, por sua intervenção, a romper a cômoda realidade regida pela lógica, instaurando um terceiro modo de ver e de ler a trama dos acontecimentos, o enredo da vida. Quais são os fundamentos e bases epistemológicas e hermenêuticas para pensar tais questões, por um lado, respeitando as diferenças, numa perspectiva multicultural e, por outro lado, como estabelecer os fundamentos e marcos teóricos para a regulamentação harmônica das tecnologias digitais em nível internacional? Quais são as possíveis bases epistemológicas e hermenêuticas para se repensar a relação da técnica com os humanos? Desta forma, procuramos observar e compreender o objeto de estudo em questão de outra perspectiva, de outro ponto de vista, mas, sobretudo, através de uma visão não polarizada, não dualista e não representativa, mas sim holística e inclusiva, a fim de repensar ambivalências e contradições. A tecnologia muda a cultura, o ser humano e o conceito de ser humano, e com isso o conceito do que significa continuar sendo humano. Vivemos em uma condição pós-moderna, em uma sociedade pós-moderna, na pós-modernidade, na sociedade da informação ou sociedade informacional, sociedade de dados, e passamos da fase da histórica à fase hiperhistórica, (FLORIDI, Luciano. "The Logic of Information: A Theory of Philosophy Philosophy as Conceptual Design", Oxford: OUP, 2019). Na fase da hiper-história, o nosso bem-estar cada vez mais depende das tecnologias de informação e comunicação (TIC), o que difere da fase histórica, na qual apenas nos relacionávamos com tais tecnologias, já havendo pessoas que afirmam que suas vidas estão agora completas após um novo modelo de Iphone ser lançado no mercado. Em tal fase, há um excesso de informação, com uma redução de nossa capacidade reflexiva e do conhecimento, já que estes demandam tempo, e estamos aprisionados na velocidade alucinante e exponencial dos tempos atuais. As tecnologias da informação e comunicação se tornam forças ambientais, antropológicas, sociais e interativas, criando e moldando nossa realidade e autocompreensão, modificando a forma como nos relacionamos uns com os outros e com nós mesmos, e a forma como interpretamos o mundo. O que é o ser humano, pergunta formulada por Sócrates a Alcibíades, retratada por Platão em uma de suas obras (Platão, Alcibíades, I, 129E)? Um conceito que é mutável através do tempo e das culturas, e também alterado pela tecnologia, que por sua vez também muda a cultura e todas as outras manifestações sociais. Qual seria então o conceito de ser humano adequado para a 4ª revolução e a época "onlife", diante de uma realidade e história gamificadas? Diante da insuficiência do homem prático (homo practicus/homo index), inundado por avalanches de informações que comprometem sua capacidade interpretativa e sensível, informações que substituem corpos e coisas, memórias e rituais, precisamos repensar as bases epistemológicas, hermenêuticas, ontológicas e fundacionais de nossa nova realidade. A memória possui um valor essencial de resistência, como aponta Foucault ("Ditos e escritos", vol. III, p. 386-387), sendo um importante fator de luta (é, de fato, em uma espécie de dinâmica consciente da história que as lutas se desenvolvem), então, se a memória das pessoas é mantida, mantém-se seu dinamismo, sua experiência, seu saber sobre as lutas anteriores. Segundo Santaella, a plasticidade implicada na rápida adaptação da memória humana está nos tornando simbio'ticos com nossos computadores, na convivência com sistemas interconectados que nos levam a saber menos sobre o conteúdo específico das informações em contrapartida ao muito que possamos a saber (SANTAELLA, Lucia, "Culturas e artes do pós-humano: da Cultura das Mídias à Cibercultura", Paulus Editora; 1ª. Edição, 2003). Diante da insuficiência do "homo linguisticus" de Barthes, com seu "eu" fora de si mesmo, permanecendo na linguagem, depois que a linguagem deixou a equação, para onde o sujeito foi expulso? Uma nova forma surge, o "phylum maqui'nico", termo forjado por Gilles Deleuze e Felix Guattari, mencionando o silício no agenciamento contemporâneo homem-natureza (DELEUZE,  Gilles. "Foucault", Editora Brasiliense, 1988, São Paulo). Um novo Super-Homem, um "Ubermensch": o Objeto? O homo poiético? "Cibercultura", "pós-humanismo", "singularidade" e outros termos famosos atualmente podem ser entendidos como tentativas de dar sentido ao nosso novo tempo. A era da 4ª revolução industrial, da indústria 4.0 ou da era do silício, com a superação da era do carbono, no "Império Cibernético", quando chegamos ao pensamento-máquina, vem caracterizada principalmente pelo uso da inteligência artificial em todos os setores de nossas vidas, com crescente intensidade de interconexões técnicas de todos os tipos. Luciano Floridi fala em "pan-computacionalismo", já que, em um determinado nível de abstração, qualquer coisa pode ser apresentada como um sistema de informação (Luciano Floridi, "Problemas abertos na filosofia da informação". Metafilosofia, v. 35, n, 4, pp. 554-582 et seq.), e assim qualquer coisa, como nós seres humanos podem ser calculados, em uma análise preditiva voltada à máxima eficiência e produtividade. A digitalização generalizada, impulsionada pela inteligência artificial, impacta a construção do direito, redimensionando questões relacionadas ao direito privado e ao direito público, os direitos humanos e os direitos fundamentais. Como ressalta Nestor Garcia Canclini, em seus livros "Hybrid Cultures" e "Ciudadanos reemplazados por algoritmos" (Bielefeld University Press, 2019, p. 10-18) ocorre o advento da governabilidade algorítmica, tornando o espaço público opaco e distante. A cidadania é radicalizada, enquanto alguns setores se reinventam e ganham batalhas parciais, como a luta pela igualdade de gênero, embora os usos neoliberais das tecnologias aprofundam as desigualdades crônicas do capitalismo. Partiremos então da reconsideração da filosofia e de seu papel ético, não apenas como uma prática teórica, mas uma prática capaz de trazer modificações ou contribuir para modificações da realidade, unindo-se a prática e a teoria. Como tocar as margens do impensável e do inominável, no sentido da construção e um pensamento filosófico próprio, autóctone, por não envolver apenas a reprodução do já falado antes, e continuar o caminho do pensamento, fazendo um experimento com a linguagem e pensamento, em uma linguagem poética do pensamento.             Como se daria uma filosofia da IA, da informação com base nos valores construcionistas do "Homo eroticus poeticus"?           A recuperação de Eros através da recuperação do outro, e, portanto, da diferença seria ainda possível em nossa sociedade do positivo? Eros que se manifesta no Outro está quase morto, com a morte ou exclusão do outro e de sua negatividade em nossa sociedade da performance, que contraditoriamente apaga os rituais e as memórias, e assim passamos de seres de relação para seres autocentrados, onde não há a negatividade do outro para se opor a nós mesmos. Por isso para Byung-Chul Han vivemos na era do pós-imunológico, um excesso de positividade do mesmo, matando a negatividade e a diferença, sendo o Outro que permitiria que nosso corpo produzisse anticorpos. Diante da nova cultura eletrônica e novas formas de arte, como arte generativa, arte computacional, arte digital, 3DP-Art, com processos de impressão 3D e prototipagem, R-ART, criação de robôs artísticos, e VR-Art, imersão em um mundo criado totalmente via computador, entre outras modalidades, a arte provavelmente já se transformou em algo totalmente outro, abandonando seus conceitos e características tradicionais. Tudo já havia virado arte com o Pop Art, como se observa das obras de Andy Warhol, e agora tudo virando informação, teremos a totalização da arte. Arte total? Qual a relação entre IA, criatividade e arte? Podem as artes produzidas por inteligência artificial serem consideradas arte, a exemplo de arte generativa, quando esta é criada independentemente de qualquer intervenção humana, quanto ao output, a exemplo do "AARON" criado por Harold Cohen, produzindo pinturas diretamente dos algoritmos de IA, ou seja, no sentido do ser humano não controlar e não prever o futuro do output, fugindo do seu controle? O que o aparelho enxerga? O que o acaso na arte computacional através de uma proposta de aparatos com "memórias" poderá nos desafiar em jogos de criatividade? Como a arte produzida em co-autoria entre homem-máquina poderá ser vista de forma "positiva", no sentido de uma complementação ou majoração da criatividade humana? Não se trata de trazer então uma visão pessimista e distópica, em comparação com uma utópica, pois a dualidade é bem mais pobre do que a multiplicidade, mas de procuramos a lógica diagonal, na linha de Michel Foucault em seu "Teatro Filosófico", na linha de uma polifonia, quando a diferença estaria libertada. Mesmo porque, quando se fala que a IA irá substituir o ser humano em diversas atividades profissionais, também isto, segundo alguns, poderia ser visto como "positivo", já que teríamos mais tempo disponível sem se preocupar com o trabalho, e assim aproveitar o ócio "criativo", mesmo que sem reflexão e sem busca por um maior conhecimento ou cultura, apenas com diversão e gamificação, já que o universo virtual nos preencheria de emoções mais intensas e gratificantes.  Ante o atual reconhecimento de um corpo real ligado a um corpo virtual, conectado ao mundo por meio de um fluxo de ele'trons, nosso corpo e nossa mente sa~o redimensionados, perdemos a refere^ncia tempo e espac¸o. Mas, o que iremos fazer de fato com o tempo disponível e em "maior liberdade". O conceito de liberdade se acha em questão, pois esta envolve deliberação autônoma, responsabilidade e vínculo com o Outro, o que para alguns filósofos já seriam fatores em extinção. Mais tempo disponível para ficar mais e mais em plataformas digitais e no Metaverso e em jogos de realidades virtuais, com a total gamificação da vida, levando outras vidas, mesmo que não vividas, sonhadas, mas representadas algoritmicamente? A arte produzida por IA, mesmo que acompanhada da criatividade humana em co-participação, poderá ser qualificada como uma criação de uma narrativa, mesmo que quantificada e calculada? A arte considerada como forma de conhecimento poderia ser produzida por uma IA que trabalha com o excesso de informações e não é capaz ainda de um verdadeiro conhecimento, trabalhando apenas com regras e não com princípios, ou seja, sem uma análise adequada valorativa, já que para tanto englobaria uma série de qualidades propriamente humanas? Mas, não seria a própria arte uma forma de conhecimento? É possível uma arte que não esteja relacionada à poiética, à poiesis, aos valores construcionistas do Homo eroticus poieticus? É possível uma arte produzida a partir de bits, números, cálculos, que não mais nos dialogue com a incompletude, e que nos faça sentir o assombro, o êxtase, que nos faça ficar de joelhos como dizia Hegel o que estava bastante presente na arte trágica? Por isso Hegel teria mencionado o fim da arte, não mais possível para se capturar o movimento e a complexidade do espírito humano, com o advento do Cristianismo, quando então a arte perde sua relação com o espirito humano e passa apenas a ser mera recreação, entretenimento e forma de decoração do ambiente. Uma arte aprisionada em uma mentalidade voltada para a eficiência e rapidez e vinculada à representação, no sentido de seus efeitos de questionamento, crítica, nos ajudaria a refletir sobre nós mesmos e nossa condição existencial, a refletir sobre nossa relação com a técnica e no que esta nos afeta? Uma arte morta e não vinculada às potências da vida, pois não produzida por um ser vivente? Aqui trazemos mais questionamentos e provocações do que respostas, pois estas também já nos são fornecidas mais facilmente pela IA, sendo de se considerar as respostas apenas como alternativas dentre as demais possíveis, um ponto de partida para inúmeras outras possibilidades, assim como o conceito. Talvez precisemos reconsiderar e redesenhar nosso vocabulário conceitual e nossas formas de dar sentido e fazer sentido ao mundo (nossos processos e práticas de semantificação), o que, por exemplo, poderia ocorrer ao reconhecer a capacidade da IA em fazer atribuições semânticas de sentido e ao produzir narrativas. Há que se falar em criatividade sem o "logos", sendo este o que nos faz humanos e distintos dos demais animais políticos, na formulação clássica de Aristóteles, como abelhas e lobos, substituído pelo calcular, mesmo sendo o cálculo uma eterna repetição do igual? O cálculo, o calcular é o oposto do pensar, pois o pensar lança-se no aberto, ao contrário de uma prévia determinação de asseguramento (em especial no sentido de uma proposta filosófica, vinculada também à zetética, opondo-se à dogmática neste sentido, por se pautar pelo questionar, pelo duvidar. Daí a crítica de Karl Popper no desenvolvimento de sua filosofia da ciência, característica do racionalismo crítico, no sentido de ser o direito uma pseudociência, isto na sua versão apenas dogmática, ao contrário da zetética. A abordagem zetética diferencia-se da análise apenas dogmática, ou seja, de uma abordagem tecnicista, permitindo-se uma crítica e alargada; tal diferenciação foi trabalhada pioneiramente por Tércio Sampaio Ferraz Jr., seguindo os desenvolvimentos de Theodor Viehweg, seu professor no doutorado na Alemanha, preocupando-se mais com as perguntas, com o questionar, do que com as respostas, tidas como dogmas ou verdades absolutas, afirmando a relatividade e precariedade de todo o conhecimento (Acerca da diferença entre dogmática e zetética ver Tércio Sampaio Ferraz Júnior, "Teoria da Norma Jurídica", Editora Atlas, 5ª. Edição, 2016, p. 21 e ss.). Trata-se de buscarmos a recuperação do erotismo e com isso, da poiesis, da criatividade, restituindo-se o valor erótico, de Eros, para que copulemos com a linguagem, recuperando a outricidade básica da linguagem, contrária a atual vulgarização da mesma, restituindo-se o valor diacrítico e dialógico da linguagem com a valorização do outro, da diferença, do valor de indicação, de nomeação, recuperando-se, outrossim, a natureza simbólica, já que hoje em dia a linguagem se tornou mais símbolo, sendo superficial e vazia. É preciso inventar com o corpo, com seus elementos, suas superfícies, seus volumes, suas densidades, um erotismo não disciplinar: o do corpo em estado volátil e difuso, com seus encontros ao acaso e seus prazeres não calculados".1 Uma sociedade sem o outro é uma sociedade sem Eros. A mesma crise poderíamos ver também nas artes, uma crise de amor (Eros). A IA e a arte produzida com a IA poderiam nos ajudar a sair da visão antropocêntrica de domínio da natureza e também da técnica como domínio e ver uma tecnodiversidade e cosmoética e cosmotécnicas, a serviço e a favor do ser humano, ou a técnica sendo também uma produção humana a que poucos terão acesso iria majorar ainda mais a percepção antropocentrista e reduzir a inclusão digital? É possível se pensar na técnica sem ligação a uma relação de domínio e de poder, desconsiderando que ela se relaciona com os que possuem os meios de "produção" atuais, no caso do "big data" e de computadores eficientes que podem fazer a mineração de dados e extrair dai predições e outros produtos? O mundo digital, contudo, é paradoxalmente desprovido de olhar, ao mesmo tempo em que tudo é exposto ao olhar. Apesar do panóptico digital, com sua luz por todos os lados, inclusive interior, não deixando nada escapar ao seu olhar, raramente nos sentimos contemplados ou expostos a um olhar (do Outro). O inteiramente Outro ilude qualquer previsão ou cálculo e se manifesta como um olhar, e neste olhar, nos vemos a nos mesmos. O mundo digital carece de qualquer qualidade de olhar. As janelas são uma janela sem vista, nos protegendo do olhar. Ao sairmos, preferimos tirar selfies e fotos de todos os detalhes e instantes, ao invés de olharmos com nossos próprios olhos e aproveitar o momento presente. No virtual, e também talvez com a arte produzida por IA iremos "habitar" um espaço sem olhar, no qual não é possível nenhuma experiência do Outro, nenhum olhar do Outro relacionando-se ao erotismo, à alteridade, a Eros. O olhar está desaparecendo em diversos níveis. Agora, o panóptico digital funciona de forma espectral, sem pontos cegos, não deixando escapar sequer os pensamentos e as emoções, os quais são também codificados e englobados em processos preditivos voltados ao consumo ou para fins políticos, ao contrário do anterior Panopticon, de Bentham, representativo da sociedade da disciplina foucaultiana, que ainda se baseava no domínio do olhar, centrado no olhar do supervisor, que tudo via sem ser visto, dissociando o ver/estar visto. A frase mais apropriada quando se fala no Metaverso é "be all you want to be", aproximando-se da frase mais popular durante a época dos libertinos do século XVIII, voltados para uma cultura do prazer, ridicularizando os valores do século e vivendo no excesso, qual seja "tudo é valido e tudo é permitido". Tudo é possível. Para Heidegger, o tudo é possível representaria uma experiência vivida [Erlebnis]  em torno de uma maquinação [Machenschaft], ou calculabilidade (Berechenbarkeit)  em um local onde não mais cabem questionamentos, ou seja, onde tudo é possível, o que também anunciaria o fim da filosofia, após Hegel, e no seu lugar, a cibernética, como aponta Heidegger em "The End of Philosophy and the Task of Thinking" em 1964 e na entrevista de 1966 para "Der Spiegel" (Martin Heidegger, Contribuições para a Filosofia (do Evento), trans. Richard Rojcewicz e Daniela Vallega-Neu (Bloomington e Indianapolis: Indiana University Press 2012), §51, 86). Contudo, o Metaverso é comemorado como um inventivo para a inclusão social, para uma maior igualdade, pois as pessoas se encontrariam de maneira digital, com inúmeras camadas que ampliam a experiência humana. Com a arte computacional, eArte (arte 3D), arte produzida por IA, e arte em ambiente de realidade aumentada, tais domínios irão se separar de vez, aparentando se fundir, produzindo-se uma nova dimensão ou um destes domínios cederá totalmente à existência do mais forte? Com a realidade aumentada cria-se um estímulo exponencial de sensações, impossível de se competir com a realidade, cada vez mais vazia e sem sentido. Contudo, ao invés de resolver a causa do problema, tenta-se atacar a consequência, trazendo o risco de maior desorientação e alienação ao comprometer a capacidade de apreensão e de incorporação da experiência na dimensão mais profunda do sujeito. Em tal arte não há mais espaço para o silêncio, para o estranhamento profundo e, pois, a possibilidade de questionamento interno que seria um incentivo à transformação pessoal. O digital representa o excesso de significado sem qualquer correspondência com significantes, e a sedução (eros) significa o excesso de significantes, que não podem ser reduzidos ao significado. A arte relacionada à poética, e ao erotismo, é uma forma de comunicação, sendo que não há nada mais pro'ximo do erotismo do que a comunicação, a qual envolve a linguagem em contato intrínseco com o erotismo. A arte aqui que se postula, como bem apontado por Walter Benjamin, e' aquela responsa'vel por nos fazer recolher diante da obra de arte e nos abismar dentro dela, ao contra'rio da arte como simples distração e divertimento, quando seri'amos consumidos por ela. O erotismo como a mais real forma de criatividade artística, se relaciona à arte não como divertimento, entretenimento, mas com o potencial de nos fazer maravilharmos novamente, ou nos apiedarmos, com o potencial de transformação. É o que já propunha Aristóteles em sua Poética, prevendo a arte como forma de salvação do ser humano e através da arte, a vida (Aristóteles, Poética, trad. Eudoro de Souza. 3. ed. São Paulo: Ars Poética, 1993.) Em sentido semelhante Nietzsche, ao propor a arte como a forma mais elevada de atividade metafísica, através da qual a vida é tornada possível e digna de ser vivida, a arte que salva e pela arte a vida nos reconquista (Nietzsche, O nascimento da Tragédia, São Paulo: Editora Escala, 2013, coleção essência de Nietzsche). A poética permitiria a presentidade, a imediatividade, saindo da linearidade, e entrando na espiral, nos aproximando do resto, permitindo uma abertura. O erotismo como a mais real forma de criatividade artística, se relaciona à arte não como divertimento, entretenimento, mas com o potencial de nos fazer maravilharmos novamente, ou nos apiedarmos, com o potencial de transformação.  ___________ CANTARINI, Paola. Tese de doutorado em Filosofia, PUCSP, 2021, "Theatrum philosophicum - O teatro filosófico de Foucault e o Direito". ________. "Teoria Erótica do Direito", Rio de Janeiro: Lumen Juris, 2017. _______. E GUERRA FILHO, Willis S. "Teoria inclusiva dos direitos fundamentais e direito digital", Clube de Autores, 2020; _______."Teoria Fundamental do Direito digital: uma análise filosófico-constitucional, Paola Cantarini, Clube de Autores, 2020. DELEUZE,  Gilles. "Foucault", Editora Brasiliense, 1988, São Paulo. FERRAZ JR., Tércio Sampaio. "Teoria da Norma Jurídica", Editora Atlas, 5ª. Edição, 2016. FLORIDI, Luciano. "The Logic of Information: A Theory of Philosophy Philosophy as Conceptual Design", Oxford: OUP, 2019. FOUCAULT, M. "Ditos e escritos". Tradução de Vera Ribeiro. Rio de Janeiro: Forense Universitária, v. I (Problematização do sujeito: Psicologia, Psiquiatria e Psicanálise), 2002. _______. "Ditos e Escritos" - Vol. II - Arqueologia das Ciências e História dos Sistemas de Pensamento, Editora Forense Universitária; 3ª edição, 2013. ________. "Nascimento da biopolítica", curso no Collège de France (1978-1979). trad. Eduardo Brandão. São Paulo: Martins Fontes, 2008.  _______."O governo de si e dos outros: curso dado no Collège de France (1982-1983) (E. Brandão, Trad.). São Paulo: Martins Fontes, 2011. ______."História da sexualidade III: O cuidado de si, Editora Paz & Terra; 5ª edição, 2014. ____. "As palavras e as coisas", Editora  Martins Fontes, 10ª, Nova Edição, 2016. _____."Theatrum Philosophicum", São Paulo: Principio Editora, 1997, tradução de Jorge Lima Barreto. GUERRA FILHO, Willis Santiago; CANTARINI, Paola. Teoria poética do direito. Rio de Janeiro: Lumen Juris, 2015. HEIDEGGER, Martin. "A questão da técnica". Emmanuel Carneiro Leão (trad.), in: Id., Ensaios e conferências. Trads. Emmanuel Carneiro Leão, Gilvan Fogel e Marcia Sá Cavalcante Schuback. 6.ed. Petrópolis: Vozes, 2010. HERMETES, Reis de Araújo, "Apresentação, in Tecnociência e Cultura. Ensaios sobre o tempo presente", São Paulo: Estação Liberdade, 1998, p. 12). HUI, Yuk. "Technodiversity", Ubu Editora, 2020. JOHNSON, Khari. AI ethics is all about power. Em https://venturebeat.com/2020/02/21/google-launches-tensorflow-library-for-optimizing-fairness-constraints/, 2019. Acesso: 10/08/2020. LEE, Kai-Fu. "AI 2041", 2022. Ebbok, Apple. SANTAELLA, Lucia, "Culturas e artes do pós-humano: da Cultura das Mídias à Cibercultura", Paulus Editora; 1ª. Edição, 2003. SERRES, Michel. "The Parasite", Editora : University of Minnesota Press; First edition, 2007. TEUBNER, Gunther. "O direito como sistema autopoietico". Tradução e prefácio de Jose Engrácia Antunes, Lisboa: Fundação Gulbenkian, 1989. VIRILIO, Paul, "O espac¸o cri'tico", Sa~o Paulo: Editora 34, 2014 WISNIK, José Miguel. "O som e o sentido. Uma outra história das músicas", São Paulo: Companhia das Letras, 2017.  ___________ 1 M. Foucault. "Ditos e escritos", vol. III, p. 424. Somos dominados por conceitos alienantes, e em um segundo momento por imagens técnicas que nos alienam e subjugam, pois nos fazem crer serem a realidade, quando na verdade se distanciam ainda mais dela do que os conceitos. Em assim sendo, representam, como abstração matemática, um fim em si mesmo, e nos levando a cair na armadilha de estarmos presos no domínio técnico dos aparelhos, sem perceber.
"É muito difícil colocar a inteligência artificial de volta na garrafa", disse Bill Gates, um dos homens que comandam uma das maiores big techs do mundo e que expressa nesta frase as suas dúvidas sobre o potencial de crescimento disruptivo da IA. Seria como comparar seu uso em carros autônomos ou em um sistema de armas autônomas, que pode ou não valorar a vida humana. Que impactos teria em uma guerra como da Ucrânia? Embora, seja comum ouvirmos falar que o gênio só atende 3 pedidos de Aladim,  na verdade, segundo a história original de "As Mil e Uma Noites"1, o gênio pode satisfazer pedidos infinitos para quem detém a garrafa mágica, similar à  tecnologia de IA, porque não tem limites e detém a capacidade de aprender por si mesma (machine learning). O aprendizado das máquinas nos processos de negócios em todos os campos é praticamente ilimitado. Daí, as preocupações com os riscos que cercam o crescimento da IA em ritmo exponencial, com investimentos que devem chegar a US$ 203 bilhões até 2025, segundo a Fortune Business Insights. Embora a IA ainda esteja na seara de tarefas específicas, como  pilotar um avião, controlar um marcapasso, sistemas de busca na internet,  fazer um reconhecimento fácil, trabalhos com chatbots,  evitar ataques cibernéticos, criar criptografias, aumentar benefícios econômicos com o incremento da eficiência em diferentes setores; a IA tem um  potencial  difícil de mensurar  quando atingirmos  a fase das máquinas superinteligentes, capazes de executar  qualquer tarefa cognitiva acima da capacidade humana, promovendo autoaperfeiçoamentos. Como mitigar esses riscos? Certamente, a regulamentação é um caminho, porque permite que todos os atores interessados participem do debate. No Brasil, o Marco Legal da IA2, aprovado pela  Câmara dos Deputados, está estruturado em princípios gerais que regulam a matéria, fundamentos, direitos e deveres das partes e diretrizes para o Poder Público. O Marco Legal é sem dúvida um grande passo para a definição de aplicação ética do uso adequado da IA, tendência que vem sendo seguida pela União Europeia. Uma definição assertiva do que representa esse marco é a de que "as normas sociais, embora não necessariamente gerem sanções jurídicas, regulam o comportamento do indivíduo e dos grandes agentes econômicos, pois sua inobservância pode gerar represálias".3 .No projeto nacional, a IA é definida como "sistema baseado em processo computacional que pode, para um determinado conjunto de objetivos definidos pelo homem, fazer previsões e recomendações ou tomar decisões que influenciam ambientes reais ou virtuais". Já a União Europeia adota uma definição de IA com base em sistema, portanto, seria um software desenvolvido para um conjunto de objetivos visando gerar conteúdo, previsões, recomendações etc. No final das contas, estamos em busca da busca de um padrão ético. O Marco Legal brasileiro assegura em seu artigo 4º que não pretende retardar ou impedir o desenvolvimento tecnológico, inovação, livre iniciativa e livre concorrência, embora esteja previsto no texto que o poder público tem a prerrogativa de promover intervenção subsidiária, quando for necessário criar regras específicas; atuação setorial voltada a cada segmento e gestão baseada em risco, que devem levar em conta a probabilidade de riscos e potenciais benefícios. Temia-se que a lei tivesse a capacidade de se tornar um cipoal burocrático, servindo de obstáculo ao desenvolvimento da IA, o que não aconteceu. Para avaliações de conformidade, o Marco Legal brasileiro criou os agentes de IA, "pessoas físicas ou jurídica, de direito público ou privado, e entes sem personalidade jurídica". Os agentes de desenvolvimento participam do planejamento e design, coleta e processamento de dados e construção de modelos, verificação e validação. Destaque para o termo design, que toma forma como privacy by design; privacy by default; privacy by security e assim por diante, trazendo conceitos de segurança na concepção e execução dos projetos. Já os agentes de operação são todos aqueles que integram a fase de monitoramento e operação do sistema de IA.  O novo Marco Legal também propõe dialogar com Leis correlatas, como a Lei Geral de Proteção de Dados (LGPD), Marco Civil da Internet, Código de Defesa do Consumidor e a Lei de Acesso à Informação (LAI) para criar uma nova cultura voltada a entender as tecnologias disruptivas e mitigar seus impactos sobre o bem-estar dos indivíduos. A exemplo do modelo europeu em desenvolvimento, o Marco Legal brasileiro guarda preocupações com os direitos humanos, aliás, seu principal objetivo, valores democráticos, não discriminação, preservação de direitos individuais e coletivos. Os requisitos regulatórios buscam estabelecer controle, até porque algumas decisões da IA, não são interpretáveis e podem ser opacas até mesmo para seus criadores. Nesse sentido, a UE propõe alguns requisitos para os sistemas de IA, como utilizar os valores da União Europeia no treinamento de algoritmos; manter registros usados para treinar sistemas de IA; informar os cidadãos quando estão interagindo com um sistema de IA; adotar medidas para minimizar danos; utilizar identificação biométrica com salvaguardas e manter a supervisão humana para o sistema de IA. A indústria de IA inclui uma gama vasta de segmentos de interesses globais. Por isso mesmo, já estamos vendo o início de conflito regulatório entre a União Europeia e os Estados Unidos. Os europeus4 estão propondo regras para uso de sistemas e algoritmos de IA, com um arcabouço legal que cria o chamado "ecossistema de confiança" que irá estruturar a confiabilidade da IA. O argumento da UE é que a regulamentação suprirá as "lacunas" deixadas pelo mercado, que envolveriam risco à segurança e danos aos usuários, como fins maliciosos do uso da IA.  No projeto europeu, há quatro tipos de riscos: "mínimos" (videogames), "limitados" (chatbots ou assistente de voz) "altos" (identificação biométrica, gestão de infraestrutura, educação, emprego, controle de fronteiras, administração da justiça etc.) e "inaceitáveis" (sistemas de identificação biométrica em tempo real, pontuação social, técnicas subliminares). Ao contrário da União Europeia, os Estados Unidos têm adotado um regulamento fragmentado da IA cabendo às agências reguladoras fazer o seu monitoramento. Embora esteja vivo o sonho da Comissão Europeia de construir com o governo do presidente americano Joe Biden um acordo sobre IA, dificilmente os Estados Unidos adotarão uma regulamentação abrangente como a dos europeus. Essa estrutura regulatória, caso venha a se concretizar, teria um peso e influências globais. A complexidade da IA estar no fato de que é uma tecnologia emergente em todas as frentes do conhecimento humano. Ao deixar o gênio sair da garrafa,  corremos o risco de ir além do previsível, talvez explorando o potencial e possíveis impactos adversos da IA; sendo que o senso comum nos adverte que não devemos desejar à toa, nem deixar de sonhar. Assim, na pior das hipóteses, a Lei para regrar a IA pode ser o argumento certo para desafiar o gênio a se controlar e até voltar para a garrafa, se necessário. ___________ 1 GALAND, Antoine (versão). As Mil e uma Noites. São Paulo: Ediouro, 2001 2 Disponível em https://www.camara.leg.br/propostas-legislativas/2236340 3 Direito e Inteligência Artificial: Fundamentos: vol.1 / Willis Santiago Guerra Filho. [et al] organizadores - Rio de Janeiro: Lumen Juris, 2021. Artigo "A proteção de dados como fator ético intrínseco aos modelos de negócios baseados em IA", Dora Kayfman e Priscila do Amaral S. Reis. 4 Disponível em White Paper - "On Artificial Intelligence: A European Approach to Exclence and Trust". Disponível em https://ec.europa.eu/info/sites/default/files/commission-white-paper-artificial-intelligence-feb2020_en.pdf?_x_tr_sl=en&_x_tr_tl=pt&_x_tr_hl=pt-BR&_x_tr_pto=nui,sc      
Antes do advento da tecnologia das redes sociais e do uso de smartphones e videogames,  os jovens faziam  mais uso da imaginação debruçados nos livros e HQs (histórias em quadrinhos). A imaginação reinava no mundo virtual de nossas mentes, conduzindo os sonhos. Por isso, não é difícil nos dias atuais  ler uma HQ dos anos 1960 ou assistir um filme de ficção científica sobre  tecnologias  que só viriam a se materializar anos mais tarde. Nessa linha de raciocínio, percebemos que o homem, desde a antiguidade, se desenvolveu através do pensamento e graças aos primeiros filósofos, talvez hoje, exista a inteligência artificial. Platão em sua teoria das ideias investigou o mundo virtual, a realidade virtual, o autor Massimo Citro cita uma interessante passagem "o intercâmbio entre o mundo e o antimundo acontece no reino intermediário, o "terceiro tipo" de Platão, ", ainda em seu raciocínio "Aos olhos humanos, o real (os bastidores) parece virtual, e o virtual parece real." , isso traz à tona que o mundo virtual não é novidade, nem mesmo os algoritmos1, que de maneira semelhante nosso cérebro processa as nossas decisões. Guimarães Rosa sabiamente dizia que "o real não está na saída nem na chegada: ele se dispõe para a gente é no meio da travessia".O que é real? O sentido da palavra é tudo o que realmente existe; de fato real e  verdadeiro, a realidade é refletida em nossas sensações  no mundo que percebemos e sentimos. Massimo Citro escreveu sobre o que é realidade, "Percebemos as sensações que temos no interior como se estivessem no exterior. Quando vemos, na verdade estamos olhando para dentro de nosso cérebro; quando ouvimos, escutamos um processo levado a cabo por nosso córtex; quando tocamos, recebemos estímulos gerados por nossos neurônios." e por fim, "o mundo não é o que parece ser". Com base em tais premissas entendo que o homem nada mais fez do que realizar seus sonhos de infância em sua contínua busca para desvendar o código do universo, materializando agora com uso da tecnologia, o mundo virtual, é a percepção da não realidade que se torna realidade. Seria o Metaverso? O mundo do ser digital é real e vice-versa, coexistindo e influenciando os seres humanos, por isso, talvez estejamos diante do maior desafio da ciência jurídica, ordenar e regulamentar um novo espaço virtual, agora não mais de nossas mentes, mas das máquinas, estas, fruto de nossa própria criação. O desafio está em sistematizar e proteger os cidadãos da velocidade de processamento de dados que a nova tecnologia permite trazer, tanto para o bem quanto para o mal. Podemos listar centenas de benefícios trazidos com a tecnologia atual, sem se falar do que está por vir com o advento do 5G (a internet das coisas).A contrapartida disso é o que está por trás, há aqueles que trabalhem com outros objetivos, com base nessa massa de dados (big-data)2, manipulando como desejar as preferências, de acordo com seu objetivo. Os riscos da má conduta, da falta de ética pode levar à concepção de aplicações discriminatórias.A matemática e cientista de dados, Catthy O'Neil, pesquisou a discriminação algorítmica em um mecanismo de avaliação de professores americanos para promover ou demitir, de acordo com sua pontuação. Um homem foi preso injustamente nos Estados Unidos por ter sido confundido por outra pessoa através do sistema de reconhecimento facial da polícia. Isso precisa ser ajustado. Como seria então a definição ética das decisões em situações de risco/acidente de um veículo autônomo? Ele atuará de acordo com a programação dos cientistas de dados, e da mesma maneira que nosso cérebro processa nossas decisões, adotará ações pré-definidas com base naquilo que foi programado, ou seja, o veículo autônomo não "pensa", apenas processa. Diante disso, ainda que não exista a máquina da singularidade, tudo que se vê foi programado por um ser humano, portanto, requer cercá-lo de normas que definam o que é certo e o que é errado, novamente, o bem versus o mal. Essa é a importância da legislação que aborda a conduta ética, tão abstrata ainda, mas importante como pontapé inicial. Os conceitos PIA (Privacy Impact Assessment)3 vêm auxiliar o gerenciamento dos projetos: Perceba que não falamos aqui de tecnologias com fins militares e tampouco políticos, temas que requerem uma nova pesquisa.privacy by design4; privacy by default e privacy by security, são fundamentais para aplicação na concepção de novos serviços tecnológicos e as bases legais devem não só orientar, mas punir os infratores. Nessa nova realidade, nem tudo ou quase tudo, não é notado, a programação matemática dos algoritmos está abaixo da linha do oceano e não podemos perceber, a única maneira de minimizar os impactos e a contínua evolução nos debates da sociedade; consultas públicas; iniciativas de Lei para proteger os cidadãos e educação constante. O cenário mundial da proteção dos dados pessoais engloba mais de 140 países, destes, 118 Estados-Membros da ONU, além de dezenas de iniciativas pendentes que protegem os dados pessoais em todo o planeta. No Brasil temos a Lei Geral de Proteção de Dados, (LGPD - lei 13.709, de 14 de agosto de 2018), semelhante à norma Europeia (GDPR), trazendo as orientações básicas para o tratamento dos dados, por todo e qualquer tipo de empresa, pública ou privada. Um parêntese para o significado da palavra tratamento, ele corresponde ao bom ou mau uso que se faz das coisas; cuidado ou negligência com que delas se trata, estabelecido na LGPD em mais de 20 condições de tratamento dos dados pessoais das pessoas naturais. O contínuo e exponencial avanço da tecnologia tem demonstrado a importância da regulamentação perante tantos riscos e ameaças.  Nesse breve contexto é possível chegar a uma primeira conclusão, de que, de fato, foi muito importante o início da vigência da LGPD, digamos até que "antes tarde do que nunca", além de outras normas que chegarão, dentre delas, o Marco Legal da IA (PL 21/20). Os dados pessoais representam um poder nunca antes percebido pelo homem comum, além do valor monetário que a massa de dados pode representar. O que significa incluir a proteção de dados no rol dos direitos fundamentais? a proteção dos dados pessoais agora tem como tutela a Constituição Federal, como contribuição filosófica acerca da teoria dos direitos fundamentais, como relação universal, o autor Robert Alexy aborda a amplitude desse enquadramento, "as normas de direitos  fundamentais são "(meras) normas de princípios" , que "indicam que, na ordenação das relações sociais e na solução de conflitos, deve ser conferido um peso especial a determinados interesses de liberdade (liberdades de crença, de opinião, de profissão e de propriedade etc.), em suma, à ideia de autodeterminação individual." No caso dos dados pessoais, entramos no rol dos direitos a proteção, bem destacados também por Alexy: "Por 'direitos a proteção' devem ser aqui entendidos os direitos do titular de direitos fundamentais em face do Estado a que este o proteja contra intervenções de terceiros." Conceituado por Luiz Barroso, "os direitos fundamentais, por sua vez, são os direitos humanos incorporados ao ordenamento jurídico doméstico. Significam a positivação, pelo Estado, dos direitos morais da pessoa. " .Essa conceituação é fundamental para o entendimento de que a inovação tecnológico trouxe à sociedade benefícios e riscos, necessitando adaptar o ordenamento jurídico à nova realidade para proteção de mais um valor intrínseco a dignidade da pessoa humana, que sem isso, poderia certamente desordenar o desenvolvimento das pessoas e ferir as liberdades conquistadas ao longo de décadas. Compreendendo o cenário em que vivemos é de suma importância que se estabeleçam critérios morais e éticos para a conduta daqueles que fazem uso da tecnologia, sendo que o pontapé inicial foi dado com a LGPD; o Marco Civil da Internet; o Código de Defesa do Consumidor entre outras normas que estão por vir, mas destaco a iniciativa do Deputado Eduardo Bismarck através do Projeto de Lei nº 21/2020 que estabelece "princípios, direitos, deveres e instrumentos de governança para o uso da inteligência artificial no Brasil e determina as diretrizes para a atuação da União, dos Estados, do Distrito Federal e dos Municípios, pessoas físicas e jurídicas, de direito público ou privado, e entes sem personalidade jurídica em relação à matéria." Diante de tamanha complexidade, uma sociedade de dados com altíssima velocidade de processamento e os riscos inerentes à má conduta nos levam a crer que o desafio do direito é proporcional, como poderíamos debater publicamente as questões de segurança e desenvolver Projetos de Lei ao passo que a velocidade da tecnologia estará sempre à frente. A chave para reduzir tais impactos e harmonizar vem da teoria desenvolvida por Willis Santiago, aplicando-se o princípio da proporcionalidade, como o princípio dos princípios e a reinvenção dos direitos humanos. A autora Paola Cantarini destaca: "Assim sendo os procedimentos são a ponte que liga o sistema jurídico aos demais sistemas, sendo de fundamental importância para as operações de autor-reprodução judicial dentro dos sistemas." E, nesse sentido, deve-se "ressaltar a importância crescente do papel da magistratura, e a influência decisiva, em nossa sociedade hipercomplexa, de leis processuais, de procedimentos, possuindo até mesmo as normas das Constituições a natureza de normas processuais. " Barroso, Luís Roberto; Curso de direito constitucional contemporâneo: os conceitos fundamentais e a construção do novo modelo. 9. ed - São Paulo: Saraiva Educação, 2020. Alexy, Robert. Teoria dos direitos fundamentais. tradução Virgílio Afonso da Silva. 2. ed - São Paulo: Malheiros Editores, 2008. Santiago Guerra, Willis [et al] organizadores. Direito e inteligência artificial: fundamentos: vol. 1. Rio de Janeiro: Lumen Juris, 2021. Santiago Guerra, Willis [et al] organizadores. Direito e inteligência artificial: fundamentos: vol. 2. Rio de Janeiro: Lumen Juris, 2021. Cantarini, Paola. Teoria Fundamental do Direito Digital: Uma Análise Filosófico-constitucional. Amazon. São Paulo, Brasil, 2020. Citro, Massimo. O código básico do universo: a ciência dos modelos invisíveis na física, na medicina e na espiritualidade: tradução Humberto Moura Neto, Martha Argel; prefácio de Erwin Laszlo - 1. ed. - São Paulo: Cultrix, 2014. O'Neil, Catthy. Algoritmos de destruição em massa: como o big data aumenta a ____________ 1 Na matemática e ciência da computação, o algoritmo é uma sequência finita de ações executáveis que visam obter uma solução para um determinado tipo de problema. vide: https://pt.wikipedia.org/wiki/Algoritmo 2 Big data é a área do conhecimento que estuda como tratar, analisar e obter informações a partir de conjuntos de dados grandes demais para serem analisados por sistemas tradicionais. Fonte: Wikipédia 3 Uma avaliação de impacto de privacidade, é um processo que ajuda as organizações a identificar e gerenciar os riscos de privacidade decorrentes de novos projetos, iniciativas, sistemas, processos, estratégias, políticas, relações comerciais, etc. Fonte: Wikipédia 4 Privacidade desde a concepção é uma abordagem à Engenharia de Sistemas, a qual leva em conta a privacidade durante todo o processo de construção do software. É um conceito sensível aos valores humanos e todas as suas derivações em todo o processo. Fonte: Wikipédia
Da mesma forma que importa perguntar porque regular a inteligência artificial, nos cabe questionar o que é ética e o porquê da ética na sua relação com a IA. Os problemas relacionados à IA impõem um diálogo constante entre o Direito, a Filosofia (Ética) e a Tecnologia, já que estamos tratando de temas com características como a da transversalidade, sendo imprescindível a aproximação de campos científicos não jurídicos, resultando numa espécie de equivalente atual do que outrora, ainda há pouco, foi o direito ambiental. Do que se trata, afinal, é de repensarmos a relação entre as diversas disciplinas e saberes, e de rediscutirmos a inter e a transdisciplinaridade em novas bases diante da dissolução das fronteiras entre as exatas e as humanidades, a exemplo do que ocorre com o Direito Digital, por meio do desenvolvimento de uma teoria inclusiva e democrática, de uma Teoria Fundamental do Direito Digital e da Inteligência Artificial, aplicando-se a tais temáticas a Teoria dos Direitos Fundamentais, de forma a propiciar uma adequada proteção aos direitos fundamentais ("Teoria inclusiva dos direitos fundamentais e direito digital", Paola Cantarini e Willis S. Guerra Filho).  Vivemos na fase da hiperhistória ou pós-história (Vilém Flusser), na sociedade e economia de dados característica da era da 4ª revolução industrial, da indústria 4.0 ou era do silício, ocorrendo a dependência de nosso bem estar das tecnologias da informação e comunicação, o que diferencia da fase histórica antecedente, na qual indivíduos apenas se relacionavam com tais tecnologias (Luciano Floridi), sem que estivéssemos ainda possuídos por o que se pode chamar de "infomania" (Byung-Chul Han). A tecnologia e em especial a IA como a mais disruptiva das tecnologias, e a cada dia sendo mais utilizada, produzem efeitos em todos os setores sociais, na cultura, no ser humano, em nossas subjetividades, e no conceito de ser humano, e com isso no conceito do que significa continuar sendo humano, diante dos novos hibridismos e agenciamentos que surgem na interação tecnologia-humanos. As tecnologias da informação e comunicação se tornam forças ambientais, antropológicas, sociais e interativas, criando e moldando nossa realidade e autocompreensão, modificando a forma como nos relacionamos uns com os outros e com nós mesmos, e a forma como interpretamos o mundo. Surge o po's-humano, transformando a forma como nos relacionamos com o nosso em torno, vivendo em espaços com a abolição da distância, surgindo a paradoxal "simultaneidade da presenc¸a e ause^ncia, presenc¸a ausente, ou ause^ncia presente".   Nos cabe indagar: os desafios da IA para a ética e o direito serão resolvidos pela própria tecnologia? O "logos", a linguagem é nossa casa, e esta forma de pensamento reflexivo, criativo, imaginativo e sensível traz um tipo de reflexão impossível às máquinas, já que estas se concentrariam em oferecer respostas com base em regras. Mas o mais importante é saber fazer as perguntas corretas e que interessam, tais como, como queremos viver, o que nos é importante como sociedade? O que significa ser, o que significa ser humano no futuro? Qual o futuro do trabalho na sociedade datificada? Como será o advogado do futuro e quais novas habilidades deverá desenvolver?  A preocupação com a ética na área da inteligência artificial estaria já com seus dias contados, diante da possível ocorrência da "lavagem ética" e da insuficiência dos princípios éticos? Ocorreria a lavagem ética quando as empresas acabam desvirtuando a atenção acerca da necessidade também de uma regulação jurídica na área da inteligência artificial, ao afirmarem ser suficiente apenas um código de condutas, o que de certa forma não contribuiria para a resolução dos problemas, já que não há a necessária imparcialidade e coercitividade como no caso da heterroregulação, muitas vezes não passando de uma carta de boas intenções.  Diante de tais problemáticas, fala-se no fim da era dos códigos de conduta (Luciano Floridi, "The end of an era: from self-regulation to hard law for the digital industry"). Jess Whittlestone neste sentido aponta para a urgência de se encontrar maneiras de incorporar a ética no desenvolvimento e na aplicação da IA, embora até o momento o catálogo de princípios éticos elaborados por diversos organismos internacionais e empresas tenha se concentrado em princípios gerais, sem ofertar solução no caso de conflito entre princípios éticos, afirmando a ineficácia dos princípios éticos gerais. Corrobora tais assertivas o estudo denominado "Inteligência Artificial com Princípios: Consenso de Mapeamento", elaborado pelo Berkman Klein Center for Internet & Society da Harvard Law School traçando um panorama mundial de princípios éticos da IA, concluindo pela existência de uma grande distância entre teoria e prática na articulação dos conceitos e a sua realização concreta; inexistência de elaboração de princípios orientados para aplicações específicas de IA; divergências quanto a conceitos essenciais como, por exemplo, acerca do que se entende por "justiça". As questões éticas relacionadas com a inteligência artificial, contudo, vão muito além da elaboração de códigos de condutas éticas, de questões atreladas aos veículos automatizados e sua configuração altruísta ou não, no sentido de que vida poupar, ou de configurações de "bots" assistentes pessoais que se relacionam com crianças com aplicações "educativas" voltadas à "ética by design". Neste sentido a aplicação "Pretty Please" embutido no assistente de IA do Google, "ensinando" a criança a melhor se relacionar com seus pais, a exemplo da denominada "politenesse feature", enfatizando a importância do uso das palavras "por favor" e "obrigado" no lugar da predominância de frases impositivas.  É essencial encontrar alternativas para superar a inefetividade de princípios éticos, bem como a insuficiência de leis principiológicas e a possível ocorrência da lavagem ética de forma a tornar efetiva a regulamentação da inteligência artificial, levando-se em consideração os conceitos de ética digital intercultural, tecnodiversidade, cosmoética, fugindo-se de uma lógica ou viés antropocentrista e eurocêntrico, em atenção, outrossim, às Epistemologia do Sul, considerando-se o sul como categoria epistemológica e não geográfica (Boaventura de Souza Santos).  A IA vem sendo utilizada para a criação de perfis de publicidade direcionados a cada tipo de personalidade analisada (profiling), elaborando-se scores pelos sistemas de proteção ao crédito, bem como em policiamento preditivo, utilizando-se das análises de tendências via Big Data Analytics, construindo-se estratégias individualizadas, influenciando a opinião e atitudes públicas, além da tecnologia relacionada ao microtargeting, fundamental quando se fala em sistema eleitoral atualmente. Há um forte impacto da IA na área trabalhista, relacionando-se com o termo "algocracia", traduzindo-se nos efeitos dos algoritmos no campo das relações de trabalho, envolvendo as temáticas da governança de algoritmos. É crescente a utilização da IA na área de recrutamento e seleção, denominado de "recrutamento inteligente", com a utilização de plataformas tecnológicas especializadas no processo seletivo, denominadas de HR Rechs (Human Resources). Com isso afirma-se que são evitados critérios subjetivos ou pessoais na escolha de candidatos, evitando-se, pois, viés (bias), pautando-se em uma neutralidade axiológica, imparcialidade e na redução de erros na triagem dos candidatos (people analytics). Como a IA irá afetar o futuro do trabalho? Grande parte da população sem condições pessoais, econômicas, e sem tempo para se adaptar as novas oportunidades de emprego viverá como uma classe considerada inútil, diante do massivo desemprego gerado pela substituição de funções desempenhadas por humanos por máquinas. Com isso haverá um enorme tempo em disponibilidade que poderá ser utilizado como ócio criativo em realidades virtuais que ampliam a gamificação da vida, em um eterno mundo virtual, onde tudo é possível e todos os desejos são realizados a um só click, como no caso do metaverso.  Como se dará a proteção aos direitos fundamentais e humanos e à dignidade humana no metaverso, ao trazer uma maior ou nova vulnerabilidade, diante da maior possibilidade de manipulação comportamental e emotiva, além de uma extraordinária quantidade de dados pessoais coletados e tratados, nem sempre de forma transparente, perceptível ou informada, envolvendo o conceito de captologia.   Bem vindos ao Congresso Futurista do Real, para aludirmos a dois filmes de ficção científica distópica, o mais conhecido Matrix e menos conhecido, mas não menos importante Congresso Futurista. O termo captologia foi cunhado em 1990 pela primeira vez por B.J. Fogg, durante seu doutorado na Universidade de Stanford/EUA, e criação do Laboratório "Persuasive Tech Lab", relacionando-se com a manipulação do comportamento humano por meio de tecnologias com potencial persuasivo. Ocorre o incremento de tal potencial em raza~o da utilizac¸a~o do big data e machine learning, por sua característica da ubiquidade e técnica interativa, sem possibilitar a percepção e cognição do seu uso e de suas consequências, diferenciando-se neste aspecto dos meios de comunicação social tradicionais que se utilizavam de táticas de manipulação comportamental, mas sem conseguir produzir um resultado personalizado. A ética significa em seu sentido grego original "postura", traduzindo em uma postura em relação à vida, a favor da vida, relacionando-se com a postulação epistemológica com fundamento nos valores da "poiesis", e, pois, da poética e da erótica ("Teoria Erótica do Direito", "Teoria Poética do Direito"), no sentido de abraçar a criatividade, a sensibilidade, a imaginação, e o que há de melhor e de pior no ser humano, pois justamente isso que nos faz humanos. Longe de uma busca pela perfeição, beleza, imortalidade e eficiência, objetivos mencionados pela proposta do transhumanismo, de forma a alcançar o crime perfeito: a morte da morte, chegando-se ao "Homo Deus". Apesar de alguns filósofos apontarem, a exemplo de Heidegger, para o fim da filosofia após Hegel, é essencial a recuperação do pensamento reflexivo, crítico, interdisciplinar, zetético, indo além de um pensamento reprodutivo de uma série de informações, obtidas em escala crescente, havendo uma relação antípoda entre informação e comunicação, isto é, quanto mais informação menos comunicação e compreensão, diante da inexistência de tempo e de silêncio. As coisas estão dando lugar às informações (Vilém Flusser), surgindo a era das não coisas (Byung-Chul Han).  Antecipar princípios éticos poderá servir para influenciar o design ético da tecnologia, quando valores são designados no design da tecnologia, "ethics by design". As regulações europeia, canadense e americana ao aprovar os princípios para os desenvolvedores de aplicações de IA, com vistas ao estabelecimento de "framewoks" , trazem os conceitos de "responsabily-by-design", "privacy-by-design" e "security-by design". Trata-se da  necessária construção de um sistema de proteção proativo, abrangente e sistemicamente seguro, uma proteção sistêmica, envolvendo a proteção desde a concepção tecnológica ("protection by design"), por meio da criação de arquiteturas de decisão adequadas à proteção com o auxílio da concepção e de ferramentas tecnológicas, implementando-se a segurança ("security by design"), envolvendo a transparência do design tecnológico (projeto técnico) e dos algoritmos de IA, e não apenas no tratamento de dados pessoais.  Passa-se do paradigma da autodeterminação informativa para uma arquitetura de gerenciamento de riscos, sendo tal modificação atrelada à abordagem via risquificação, adotada na nova regulamentação da EU, o "AI Act", e no anterior "White Paper on AI", trazendo diversos níveis de risco quanto a aplicações de IA. Um dos pontos a se refletir é se um patamar estabelecido a priori e de forma fixa quanto aos diversos níveis de risco, e não uma abordagem mais flexível, diante do caso concreto, seria a melhor abordagem. Ao invés de pensamos acerca da essência da técnica objeto de reflexões por parte de Heidegger desde 1949 ("A questão da técnica"), em um sentido apenas distópico, como parte dos dispositivos do biopoder ou do capitalismo de dados, visa-se refletir acerca da tecnodiversidade e da cosmotécnica, reconhecendo a existência de um pluralismo tecnológico e ontológico (Yuk Hui), repensando-se a descolonização a partir da perspectiva da tecnopolítica.  Trata-se da insuficiência de uma visão apenas eurocêntrica e antropocêntrica para se pensar acerca da IA, tal como se verifica a exemplo das próprias Declarações Universais dos Direitos Humanos construídas sob uma ótica hegemônica ocidental, não considerando as contribuições das Epistemologias do Sul. Há uma crise quanto aos direitos humanos, e um retrocesso em termos de conquista de direitos e preocupações humanitárias, a exemplo da Declaração de Filadélfia e de Marrakesh, enfatizando-se uma concepção proprietária e econômica do trabalho, considerando como mercadoria, relegando a um segundo plano os direitos sociais, sendo corroborada pela recente jurisprudência "Viking"da Corte Europeia (Processo C-438/05, International Transport Workers' Federation, Finnish Seamen's Union contra Viking Line ABP). Seria um retorno sub-repti'cio ao sistema feudal, ao reino da personalidade das leis, ocorrendo a pulverizac¸a~o dos direitos humanos? A pec¸a de teatro "O Rei da Vela" de Oswald de Andrade, em cartaz em 2018 no TreatroOficina, dirigido e atuado por Jose' Celso Martinez Correa, apo's sua estreia e temporada origina'rias meio se'culo antes, um divisor de a'guas na histo'ria de nossa dramaturgia, em pleno regime ditatorial, traz a visão do Brasil como um pai's feudal, onde o cobrador do a'gio vira rei da vela ao explorar a pobreza dos devedores negociando os juros da dívida com um chicote.  É o reflexo da existência de um mercado legislativo planeta'rio, com as tradic¸o~es juri'dicas sendo postas em concorre^ncia umas com as outras, potencializado pela instrumentalizac¸a~o do Direito pelo ca'lculo, pela estati'stica, pelo pensamento cartesiano que entende ser suficiente a matematização do mundo. Daí se falar da necessidade de uma nova compreensão e da reinvenção dos Direitos Humanos, no sentido de integrar a diversidade cultural e as diversas concepções de justiça e de dignidade humana, a exemplo, das noc¸o~es de "dharma" Hindu, de "umma" isla^mica, de "pachamama" ou o "buen vivir" dos povos indi'genas da Ame'rica Latina, do "ubuntu africano", do "Sumak Kawsay", do "Sumak Qamana~", a partir de uma nova concepc¸a~o de comunidade, como na Constituic¸a~o do Equador de 2008, à luz do constitucionalismo transformador.  Tais propostas refletem o respeito à diferença, o respeito pela igualdade na diferenc¸a, por meio de um processo poli'tico participativo, trazendo a possibilidade de recuperac¸a~o da cidadania anestesiada ou passiva, transformada em uma cidadania ativa, como exerci'cio de direitos humanos, com destaque para a importância dos partidos-movimento, ou movimento-partidos, os protestos multitudina'rios globais como novos ativismos, movimentos multissetoriais, "multido~es inteligentes", ou "smart mobs", como o partido "Aam Aadmi Party" (AAP) em Nova Delhi, o "5 Stelle" na Ita'lia, o "Podemos" na Espanha e o movimento "Primavera A'rabe". Outros movimentos paradigma'ticos sa~o os na A'frica do Sul denominados "(hashtag)RhodesMustFall" e "(hash- tag)FeesMust-Fall", movimentos populares na Ame'rica Latina, relacionados ao direito a` educac¸a~o, tais como, os protestos estudantis no Chile, as novas demandas por universidades no Equador, as experie^ncias com instituic¸o~es e conhecimentos indi'genas nos Andes, e a ocupac¸a~o de escolas por estudantes secundaristas no Brasil.  Uma renovação do pensamento jurídico à luz de uma Teoria (Fundamental) do Direito digital e da IA, a fim de se possibilitar um maior respeito aos Direitos Fundamentais, voltando-se a uma visa~o dina^mica do ordenamento juri'dico, a partir de uma considerac¸a~o contextualizada, caso a caso, assegurando-se um procedimento isento, de modo a alcanc¸ar deciso~es aptas a equalizar todos os interesses e/ou valores em conflito, ante as mu'ltiplas possibilidades de soluc¸a~o.  Uma filosofia da IA com base nos valores do "homo poietico", uma filosofia liberta do binômio aprisionador sujeito-objeto, comprometida com o múltiplo e o acategórico, no sentido de libertar a diferença, que é o elemento essencial quando se fala em recuperação de diversas características essencialmente humanas. Uma leitura e compreensão poéticas, que levem em conta o não dito, o resto, a heterotopia no sentido foucaultiano, um espaço-outro (Tese de doutorado em Filosofia, Paola Cantarini, PUCSP, 2021, "O teatro Filosófico de Foucault e o Direito").  Foucault valoriza a fluidez e a "sfumato poética", técnica utilizada para as pinturas, criando-se uma zona indistinta, provocando uma vibração emotiva que instaura uma atmosfera propícia ao poético, valorizando a energia não verbal, conferindo à experiência estética e ao imaginário um papel privilegiado. No lugar da pretensão de clareza e objetividade, em um discurso neutro e inodoro, típicos do pensamento científico do cálculo, que se tenha a "obscuridade púrpura".  Tal proposta hermenêutica visa alcançar a perspectiva poética, e não linear, não bidimensional, não polarizada, mas holística e inclusiva, e a favor de se repensar as ambivalências e contradições, voltando-se para uma compreensão que passa pelo pensamento filosófico polifônico, do múltiplo, como uma pragmática do múltiplo, um pensamento plural, aproximando-se do que Luciano Floridi (The Logic of Information: A Theory of Philosophy as Conceptual Design) aponta como uma lógica de design a ser desenvolvida, como fundamento de uma Filosofia da IA, com base nos valores do "homo poietico". Uma mudança de uma compreensão do conhecimento representacionalista (mimético) para um construcionista (poiético), da mimesis à poiesis, numa interpretação poiética dos nossos conhecimentos, desenvolvendo uma lógica de "fazer", de design dos artefatos semânticos para os quais nós somos epistemicamente responsáveis.   
O projeto de lei 21/20 que cria o marco legal do desenvolvimento e uso da Inteligência Artificial (IA) ao lado da Estratégia Brasileira de IA no Brasil, instituída pela Portaria MCTI 4.617/21, são importantes iniciativas de regulamentação da IA no Brasil, já que cada vez mais se fala no fim da era dos códigos de conduta (autorregulação), como bem aponta Luciano Floridi, no recente artigo "The end of an era: from self-regulation to hard law for the digital industry", bem como na insuficiência e ineficácia de princípios éticos além de poderem propiciar a denominada "lavagem ética". A regulamentação jurídica é um importante passo no sentido, pois de contribuir para a necessária segurança jurídica, o que é um fator de decisão para investimentos no país, contribuindo para o desenvolvimento tecnológico, e no sentido de transformar princípios éticos em determinações cogentes e concretas (University of Harvard, Principled Artificial Intelligence: Mapping Consensus in Ethical and Rights-Based Approaches to Principles for AI). Contudo, o PL tem sido objeto de diversas críticas, diante de algumas falhas e omissões, imprecisões técnicas, ausência de obrigações substantivas e processuais, ausência de parâmetros mínimos de procedimentalização e previsão de instrumentos de governança algorítmica. Houve um curto período de tempo para contribuições por parte da sociedade civil, ao contrário, por exemplo, do Marco Civil da Internet, Lei 12.965/2014, o qual contou com um período bem mais extenso de discussão democrática e inclusiva, sendo essencial um amplo período de debate envolvendo diversos grupos da sociedade civil, trazendo ao diálogo os grupos vulneráveis.  O artigo 6º do PL traz uma abordagem equivalente à previsão da LGPD em seus artigos 10, § 3º e artigo 20, § 1º e § 2º, prevendo a "garantia de transparência sobre o uso e funcionamento dos sistemas de inteligência artificial e de divulgação responsável do conhecimento de inteligência artificial, observados os segredos comercial e industrial, e de conscientização das partes interessadas sobre suas interações com os sistemas, inclusive no local de trabalho".  Como equilibrar via ponderação a necessária observância do segredo industrial e comercial que envolve os programas de computador e os algoritmos de IA, a proteção via propriedade intelectual, com os demais direitos fundamentais envolvidos e em colisão? Ao se analisar de forma literal e gramatical as disposições da LGPD (artigos 10, § 3º e artigo 20, § 1º e § 2º) e do PL 21/20 (art. 6) pode-se chegar à equivocada conclusão de que o segredo industrial/comercial sempre irá prevalecer, mesmo diante de casos de colisão com direitos fundamentais, devendo também ser analisados os princípios da transparência e da explicabilidade. É importante se optar por uma abordagem sistêmica, e funcional, e à luz da teoria dos Direitos Fundamentais, ao invés de uma interpretação literal e gramatical, analisando-se todos os direitos fundamentais em colisão e a melhor forma de respeito mútuo e compatibilidade, sem que jamais se fira o conteúdo essencial de qualquer direito fundamental a ponto de aniquilar o mesmo. Como observar o princípio da explicabilidade, e tornar efetivos os direitos à explicação e à revisão de uma decisão automatizada, sem acesso aos parâmetros da tomada de decisão, sendo em alguns casos necessária a quebra do código fonte, a fim de melhor compreender os aspectos da decisão, envolvendo, pois, os aspectos da acessibilidade e compreensibilidade?  No recente livro "The rise of big data policing: surveillance, race, and the future of law enforcement", Andrew Guthrie Ferguson aponta para algumas perguntas que deveriam pautar a utilização de algoritmos, tais como: é possível defender os inputs do sistema (acurácia dos dados e idoneidade da metodologia)? É possível defender os outputs do sistema e como eles impactarão as políticas em prática e as relações comunitárias? É possível testar a tecnologia, oferecendo accountability e alguma medida de transparência?  É fundamental uma análise crítica e interdisciplinar acerca de tais questões de forma a equilibrar a inovação e a responsabilidade, contribuindo por um lado para o desenvolvimento da tecnologia e de investimentos no país, e de outro lado, com o necessário respeito aos direitos fundamentais. Segundo Wolfgang Hoffmann-Riem, a proteção adequada no caso em questão poderia ser possibilitada pela introdução nos tribunais dos denominados procedimentos sigilosos; as empresas são obrigadas a revelar ao tribunal os algoritmos, em particular algoritmos que podem ser utilizados para pôr em perigo a liberdade, divulgando as máximas e os critérios em que se baseiam, a informação utilizada como input e, no caso dos sistemas de aprendizagem, as regras de formação utilizadas, se necessário também o tipo de utilização da análise de Big Data. Tais informações não deverão tornar-se públicas, limitando seu acesso ao órgão julgador, sendo inacessíveis até mesmo às partes no processo.  A fim de se alcançar um sistema de proteção proativo, abrangente e sistemicamente seguro, uma proteção sistêmica, destaca-se cada vez mais a proteção desde a concepção tecnológica (protection by design), envolvendo a criação de arquiteturas de decisão adequadas à proteção com o auxílio da concepção e de ferramentas tecnológicas, como forma de se implementar a segurança (security by design), falando-se em transparência do design tecnológico, mais ampla do que apenas transparência na coleta e tratamento de dados pessoais, abrangendo a transparência do design tecnológico (o projeto técnico) e dos algoritmos utilizados. No entanto, como bem aponta Wolfgang Hoffmann-Riem, a proteção dos segredos comerciais é contrária ao dever de divulgação. Bruno Bioni afirma que "a explicação seria uma ferramenta de accountability de IA ao expor a lógica da decisão, devendo permitir ao observador determinar a extensão em que um input particular foi determinante ou influenciou um resultado. Entretanto os segredos comercial e industrial constituem objeções à transparência". Importante julgado conhecido como caso "Schufa", da lavra do Tribunal Federal de Justiça da Alemanha reconheceu, em princípio, a proteção ao segredo comercial em uma decisão sobre a pontuação do SCHUFA, envolvendo a classificação de crédito, sem levar em consideração que a proteção de segredos oficiais/industriais, não constitui um fim em si mesmo, mas exige igualmente uma coordenação com a proteção de pessoas e de interesses jurídicos diversos. Wolfgang Hoffmann Riem afirma que referida decisão não cumpriria com os requisitos do Capítulo III RGPD/GDPR. Pontua, todavia, que a divulgação do design tecnológico e dos sistemas algorítmicos utilizados iria, por outro lado, interferir demasiado com a autonomia das empresas e afetar os seus legítimos interesses, permitindo o acesso dos algoritmos pelos concorrentes. A quebra do segredo industrial seria justificada no caso de direitos fundamentais, em especial para evitar discriminação, estigmatização e manipulação, ou diante de outro interesse legítimo na divulgação equivalente à proteção de um segredo comercial.  O direito à informação, previsto no art. 6º, VI da LGPD compreenderia o acesso e esclarecimento quanto aos aspectos principais e a lógica da decisão algorítmica - e, especialmente os critérios de decisão -, de modo a ter, em princípio, a preservação do segredo de empresa, já que não seria necessário revelar o código fonte do algoritmo, mas os aspectos mais relevantes da decisão algorítmica. Contudo, em alguns casos concretos talvez seja necessário o acesso ao código fonte, sendo certo que até mesmo a Lei de Propriedade Industrial abre exceções ao segredo comercial no caso de ações judiciais, desde que respeitado o segredo de justiça.  Entendemos, no entanto, que deverá ser analisado o caso concreto mediante o procedimento de ponderação e aplicação da proporcionalidade (art. 206, da LPI), já que nem sempre no Brasil o segredo de justiça é respeitado, analisando-se a realidade sociocultural do país, de modo a não inviabilizar a atividade econômica, nem tampouco afrontar aos demais direitos fundamentais em colisão. Mutatis mutandis, o princípio da proporcionalidade vem sendo aplicado em tais casos, encontrando previsão na jurisprudência internacional e em documentos legislativos relacionados à proteção de dados e ao big data, estando tais temáticas intimamente relacionadas com a IA, como pode se observar do art. 8º da Carta de Direitos Fundamentais da União Europeia, de 07.12.2000, do Regulamento Europeu de Proteção de Dados - GDPR 2016/679 do Parlamento Europeu e do Conselho Europeu, revogando a Diretiva 95/46/CE, em seu item 1 e 4, bem como do documento "Adecuación al RGPD de tratamientos que incorporan Inteligencia Artificial" da Agência Espanhola de Proteção De Dados (AEPD) de 02/2020, e da Resolução 1-2020 da Comissão Interamericana de Direitos Humanos (CIDH) denominada "Pandemia y derechos humanos em las Américas" de 10/04/2020, item 21. O Conselho da União Europeia apresentou no final do ano passado  a primeira versão de um projeto para regulação  horizontal da Inteligência Artificial, com requisitos mínimos,  fundada em dois argumentos principais,  que considera falhas de mercado  no sentido de buscar uma aceitação mais ampla da  tecnologia de IA, a falta de transparência para sua  aplicação voltada a corporações, sistemas públicos e usuários , a chamada assimetria de informações, e riscos de segurança que essa tecnologia poderia trazer no contexto de seu uso, sendo que tanto pode apresentar efeitos  não intencionais, como podem ter fins maliciosos. Na verdade, a preocupação da Europa está focada nas chamadas aplicações de alto risco da IA, sendo que as empresas sediadas fora da UE estarão sujeitas à regulamentação e valores europeus, quando fornecerem tecnologia de IA para seus cidadãos. Não se sabe, porém,  se a União Europeia terá força para impor um padrão global na regulação da IA, o que poderá definir o futuro dessa tecnologia. Por derradeiro, cumpre lembrar a relação da proporcionalidade com a fórmula jurídica e política do Estado Democrático de Direito, o qual depende de procedimentos, especialmente os judiciais, para que se dê sua realização, sendo a proporcionalidade de se considerar um desses procedimentos, merecedor de todo destaque. Isto porque a proporcionalidade encontra íntima relação com a ideia de procedimentalização do Direito, legitimidade do direito pelo procedimento, judicialização do ordenamento jurídico (espaço público para discussão, amplo debate, publicidade, e isonomia) (Luhmann, Habermas, R. Wiethölter e John Rawls). Neste sentido, pode-se interpretar a falta de fundamentação por parte da crítica à ponderação, no sentido de não ter qualquer vínculo com procedimentos, e não oferecer a dinamicidade necessária para a resolução de conflitos em nossa sociedade altamente especializada e amparada em uma crescente complexidade e majoração frenética da aceleração do tempo. É antes, muito pelo contrário, ela que permite, em face de tal complexidade aceleração temporal, produzir a necessária escansão temporal para o confronto das diversas posições, assim permitindo atingir a solução que melhor compatibilize os princípios e direitos fundamentais em colisão, sem cancelar nenhum, a título de ponderação, pois todos remetem, em última instância, à dignidade humana.