COLUNAS

  1. Home >
  2. Colunas

IA em Movimento

Debate sobre a Inteligência Artificial e questões como privacidade, opacidade e preconceito, interação humano-robô, emprego e algoritmos, ética no desenvolvimento e aplicação dos sistemas de IA.

Ricardo Freitas Silveira e Fabio Rivelli
A corrupção representa um desafio global que permeia tanto nações desenvolvidas quanto em desenvolvimento, comprometendo a confiança nas instituições, o desenvolvimento econômico e o respeito aos direitos humanos. Este fenômeno multifacetado não apenas drena recursos públicos essenciais, mas também distorce processos decisórios, enfraquece o estado de direito e perpetua desigualdades sociais. Neste cenário complexo, a IA - Inteligência Artificial emerge como uma ferramenta promissora no combate à corrupção, oferecendo aplicações inovadoras que abrangem desde a detecção de fraudes até a auditoria de dados financeiros em larga escala. O presente artigo propõe-se a analisar o potencial da IA no enfrentamento da corrupção, com enfoque nas discussões do Grupo de Trabalho 101 (GT 10) do Civil 20 (C20)2, um grupo de engajamento oficial do G20 que representa organizações da sociedade civil. A aplicabilidade da IA no combate à corrupção manifesta-se de diversas formas, destacando-se a possibilidade do monitoramento de transações financeiras, a automação de processos de auditoria e a detecção de comportamentos anômalos. Algoritmos de machine learning têm a capacidade de analisar volumes massivos de dados, podendo identificar padrões suspeitos como transações não declaradas ou vínculos irregulares entre agentes políticos e empresas envolvidas em licitações públicas. Esta capacidade de processamento supera as limitações humanas, permitindo a análise de milhões de transações em tempo real, o que seria virtualmente impossível pelos métodos tradicionais. Ademais, a IA pode otimizar a revisão de contratos públicos, identificando inconsistências ou conflitos de interesse de maneira mais eficiente. Por exemplo, algoritmos de processamento de linguagem natural podem analisar o conteúdo de contratos, comparando-os com padrões estabelecidos e identificando cláusulas atípicas ou potencialmente problemáticas. Essa abordagem não apenas acelera o processo de revisão, mas também reduz a probabilidade de erros humanos ou omissões involuntárias. Estas aplicações encontram respaldo no relatório "New Technologies for Sustainable Development: Perspectives on Integrity, Trust and Anti-Corruption3", elaborado pelo Programa das UNPD4 - Nações Unidas para o Desenvolvimento em 2021, que enfatiza o papel da transformação digital no fortalecimento da transparência e na promoção da governança. O relatório destaca como as tecnologias emergentes, incluindo a IA, podem revolucionar a forma como governos e organizações abordam a questão da corrupção, oferecendo ferramentas mais sofisticadas e eficazes para sua prevenção e detecção5.  Não obstante o potencial promissor, a implementação da IA no combate à corrupção enfrenta desafios significativos que requerem atenção cuidadosa. A escassez de dados adequados e estruturados, especialmente em países onde a transparência governamental é limitada, compromete o treinamento eficaz dos algoritmos. Esta limitação é particularmente problemática em contextos onde a corrupção é mais prevalente, criando um paradoxo em que as ferramentas mais necessárias são as mais difíceis de implementar eficazmente. Ademais, a implementação bem-sucedida dessas tecnologias demanda investimentos substanciais em infraestrutura tecnológica e na formação de profissionais qualificados. Muitos países, especialmente aqueles em desenvolvimento, podem enfrentar dificuldades em alocar recursos para essas iniciativas, especialmente quando confrontados com outras prioridades urgentes de desenvolvimento. Este desafio ressalta a necessidade de cooperação internacional e transferência de conhecimento para garantir que os benefícios da IA no combate à corrupção sejam acessíveis globalmente. Outro desafio premente reside no risco de vieses algorítmicos, uma vez que algoritmos baseados em dados históricos parciais ou corrompidos podem inadvertidamente reforçar desigualdades existentes. Por exemplo, se os dados de treinamento refletirem práticas discriminatórias passadas, os sistemas de IA podem perpetuar ou até amplificar essas injustiças. Este risco é particularmente preocupante no contexto do combate à corrupção, onde decisões algorítmicas podem ter consequências sérias para indivíduos e organizações. Neste contexto, torna-se imperativo manter um equilíbrio delicado entre automação e supervisão humana, garantindo a justiça e a transparência dos processos. A implementação de sistemas de IA no combate à corrupção deve ser acompanhada por mecanismos robustos de governança, incluindo auditorias regulares, revisões éticas e processos de apelação para decisões automatizadas. Além disso, é crucial desenvolver frameworks éticos específicos para o uso de IA neste domínio, assegurando que os princípios de justiça, equidade e respeito aos direitos humanos sejam preservados. O GT 10 do C20-G20, alinhado ao Objetivo de Desenvolvimento Sustentável 16 (ODS 16: Paz, Justiça e Instituições Eficazes), desempenha um papel crucial na discussão sobre o uso da IA no combate à corrupção. Este grupo proporciona um espaço vital para que a sociedade civil discuta e proponha formas éticas e transparentes de aplicar a IA neste contexto. Sua composição diversificada, incluindo representantes de organizações não-governamentais, academia e setor privado, permite uma abordagem multifacetada e inclusiva para os desafios apresentados. Atuando como ponte entre a sociedade civil e o G20, o GT 106  contribui significativamente para a formulação de políticas internacionais que regulamentem o uso da IA contra a corrupção. Seu trabalho é fundamental para assegurar que as tecnologias de IA sirvam ao interesse público e não sejam capturadas por interesses privados ou políticos. O grupo também desempenha um papel crucial na sensibilização dos líderes do G20 sobre a importância de abordar as questões éticas e práticas associadas ao uso da IA no combate à corrupção. Com base nas discussões promovidas pelo GT 10, emergem recomendações cruciais para o avanço da aplicação da IA no combate à corrupção. Primeiramente, urge o desenvolvimento de uma estrutura regulatória internacional que normatize o uso ético da IA neste domínio. Esta estrutura deve abordar questões como a proteção de dados, a responsabilidade algorítmica e os mecanismos de recurso para decisões automatizadas. Além disso, deve-se considerar a criação de padrões internacionais para a transparência e a auditabilidade dos sistemas de IA utilizados no combate à corrupção7.  Paralelamente, faz-se necessário o investimento em programas de capacitação para profissionais do setor público em IA e análise de dados, visando a formação de uma força de trabalho qualificada para lidar com essas tecnologias avançadas. Estes programas devem não apenas abordar aspectos técnicos, mas também incluir componentes éticos e legais, preparando os profissionais para navegar pelos complexos desafios associados ao uso da IA neste contexto. A implementação de mecanismos robustos de supervisão e auditoria para algoritmos utilizados no combate à corrupção é igualmente fundamental para garantir a integridade e a confiabilidade dos sistemas. Isso pode incluir a criação de comitês de ética independentes, a realização de auditorias algorítmicas regulares e o estabelecimento de processos de revisão contínua para assegurar que os sistemas de IA permaneçam alinhados com os objetivos de combate à corrupção e respeito aos direitos humanos. Ademais, a promoção da colaboração internacional no compartilhamento de dados e melhores práticas pode acelerar o progresso global nesta área. Iniciativas como a criação de repositórios de dados anonimizados sobre casos de corrupção podem contribuir significativamente para o desenvolvimento e aprimoramento de algoritmos de detecção. A colaboração internacional também pode ajudar a superar barreiras de recursos, permitindo que países com menos recursos se beneficiem das experiências e tecnologias desenvolvidas em outras partes do mundo. Por fim, o incentivo à pesquisa acadêmica sobre o impacto da IA no combate à corrupção é essencial para embasar políticas e práticas futuras. Áreas de pesquisa prioritárias podem incluir o desenvolvimento de métodos para mitigar vieses algorítmicos, a criação de frameworks para a interpretabilidade de decisões baseadas em IA e a avaliação do impacto a longo prazo dessas tecnologias na governança e na confiança pública. Em conclusão, a aplicação da IA no combate à corrupção representa uma inovação promissora, porém requer uma abordagem cautelosa e regulada. O GT 10 do C20-G20 desempenha um papel fundamental ao fomentar essa discussão, permitindo que a sociedade civil colabore ativamente na formulação de políticas globais que assegurem o uso ético e eficaz dessas tecnologias. Embora a IA possa constituir uma aliada poderosa na luta contra a corrupção, sua implementação bem-sucedida dependerá de um compromisso contínuo com a transparência, a supervisão adequada e o respeito aos direitos humanos. À medida que avançamos neste campo, é imperativo manter um diálogo aberto e inclusivo sobre como podemos aproveitar melhor o potencial da IA para construir sociedades mais justas e transparentes, sem perder de vista os desafios éticos e práticos que essa tecnologia apresenta. O combate à corrupção através da IA não é apenas uma questão técnica, mas um desafio multidimensional que requer uma abordagem holística, envolvendo aspectos tecnológicos, éticos, legais e sociais. Somente através de uma colaboração contínua entre governos, sociedade civil, setor privado e academia poderemos desenvolver soluções de IA que sejam verdadeiramente eficazes, éticas e alinhadas com os valores democráticos e os direitos humanos. __________ 1 O GT10 é um dos Grupos de Trabalho do C20, com foco específico no ODS16 - Governança Democrática, Espaço Cívico, Anticorrupção e Acesso à Justiça. Este grupo, assim como os demais GTs do C20, funciona como um espaço temático onde organizações da sociedade civil, redes e movimentos sociais se reúnem para discutir e elaborar documentos políticos. Esses documentos contêm recomendações e propostas concretas direcionadas ao G20, visando influenciar suas decisões e políticas. Os GTs do C20 têm como princípio a continuidade, construindo sobre o trabalho realizado por grupos anteriores. Isso permite uma abordagem consistente e evolutiva ao longo do tempo. Além disso, esses grupos se esforçam para incorporar uma diversidade de perspectivas e experiências da sociedade civil em vários tópicos relevantes, garantindo assim uma representação ampla e inclusiva nas discussões com o G20.  2 O Civil 20 (C20) é um Grupo de Engajamento oficial do G20, formalizado em 2013. Sua função principal é representar a sociedade civil organizada junto ao G20, atuando como uma ponte entre os cidadãos e os líderes mundiais. O C20 tem se fortalecido ao longo dos anos, desempenhando um papel crucial na defesa de questões importantes como proteção ambiental, desenvolvimento social e econômico, direitos humanos e o princípio de "não deixar ninguém para trás". As responsabilidades do C20 são múltiplas e abrangentes. Ele fornece conhecimento especializado aos governos do G20, ao mesmo tempo em que os responsabiliza por seus compromissos. O grupo busca resultados positivos para a sociedade como um todo, promovendo meios financeiros eficazes e uma alocação eficiente de recursos para atingir esses objetivos. Um aspecto importante do C20 é seu papel de equilibrar o acesso ao G20. Evidências sugerem que o G20 tende a favorecer os interesses empresariais em detrimento da sociedade civil. Nesse contexto, o C20 trabalha para garantir que as vozes dos cidadãos sejam ouvidas e consideradas nas decisões governamentais, contribuindo para restaurar a confiança pública nos governos. O C20 se destaca como um dos principais colaboradores para o processo do G20. Além de atuar como guardião dos interesses públicos, a sociedade civil representada pelo C20 é uma fonte rica de expertise e inovação em diversas áreas relevantes para o G20, como tecnologia, desenvolvimento sustentável, igualdade de gênero, emergências climáticas, saúde e educação. 3 Em suma, o C20 não apenas monitora e influencia as decisões do G20, mas também oferece soluções inovadoras e ideias de ponta para os desafios globais contemporâneos. Seu papel é fundamental para garantir que as políticas e decisões do G20 reflitam as necessidades e aspirações dos cidadãos em todo o mundo. 4 UNITED NATIONS. New technologies for sustainable development: perspectives on integrity, trust and anti-corruption. Nova York: United Nations, 2020.  A UNPD é a principal agencia da ONU para desenvolvimento internacional que oferece suporte a divresos países: ONU. UNPD. Disponível aqui. 5 How innovations in anti-corruption can build sustainable development. Disponível aqui. New Technologies for Sustainable Development: Perspectives on Integrity, Trust and Anti-Corruption. Disponível aqui. 6 C20.org. Site do C20 está no ar: sociedade civil já pode se engajar nos grupos de trabalho. 7 Word Economic Forum. Why frontier technologies will drive the fight against corruption. Disponível aqui.
O C20 (Civil 20) é um dos grupos de engajamento do G20, que reúne as 19 maiores economias do mundo e que está sendo sediado no Brasil pela primeira vez este ano. O C20 é composto por organizações da sociedade civil que representam os interesses e preocupações dos cidadãos sob uma perspectiva globalizada. Os princípios que norteiam o C20 incluem o caráter global; a transparência; independência; colaboração; o respeito aos direitos humanos, igualdade de gênero e empoderamento das mulheres; a inclusão; continuidade e a previsibilidade.1 Este artigo discute iniciativas de integrantes do grupo de trabalho G07: Digitalização e tecnologia do C20. Este grupo é particularmente crucial, abordando questões tecnológicas e suas implicações socioeconômicas, jurídicas e éticas. O G07 foca em áreas-chave relacionadas ao impacto das tecnologias emergentes na sociedade, com ênfase no desenvolvimento de exposições e intervenções relacionadas principalmente à inclusão digital e IA. Como parte deste esforço contínuo, nós, autores e membros do C20, juntamente com outros participantes, desempenhamos um papel vital para a defesa e concretização da inclusão digital. Nossa colaboração visa promover a igualdade e fraternidade na representação da sociedade civil tanto em âmbito nacional quanto global. Destaca-se em nosso grupo a presença da profa. dra. livre-docente Maria Celeste Cordeiro Leite dos Santos, que nos representa em algumas de nossas iniciativas para a sociedade digital. Contribuímos para desenvolver estudos e trabalhos voltados à promoção do acesso equitativo às novas tecnologias digitais, com foco especial na defesa e concretização de direitos humanos de grupos hipervulneráveis, vulneráveis e marginalizados, nosso trabalho enfrenta questões de desigualdades regionais e assimetrias, como as situações de migrações, refúgio e apátrida, expondo desigualdades econômicas e abordando questões jurídicas, éticas e de governança. O impacto do C20 no G20 pode ser observado em vários níveis, sendo um deles o resultado efetivo e concreto da participação da sociedade civil voltado ao estudo dos impactos digitais, que contribui significativamente para a agenda das políticas públicas do G20. As recomendações enfatizam questões críticas, como a inclusão digital, reconhecida como um direito humano essencial na era digital, que influencia diretamente a governança tecnológica. A participação contínua do C20, e especificamente, do grupo de trabalho G07 de tecnologia, representa as preocupações da sociedade civil, em promover a inclusão digital e defende a governança ética das tecnologias emergentes. O compromisso está voltado aos cidadãos do planeta no sentido de  assegurar que o desenvolvimento tecnológico global seja justo e benéfico para todos. Este trabalho reflete as necessidades e aspirações de uma sociedade global diversificada e interconectada, garantindo a efetivação dos direitos humanos, agora no âmbito digital. Este artigo presta uma sincera homenagem aos indivíduos que, com dedicação ímpar, empenham-se na árdua tarefa de aprimorar as condições da existência humana, contribuindo assim para o progresso coletivo da sociedade. __________ 1 C20 Brasil. Sobre o C20 Brasil, acesso em 31/07/2024.
Pesquisa da Universidade de Princeton apontou que o setor jurídico está entre os 20 mais afetados pela IA nos próximos anos. O que isso quer dizer? Em 10 anos todos os 1,4 milhão de advogados brasileiros devem começar a procurar novas atividades? Certamente que não, mas o advento da IA e seus sistemas revolucionários vieram para impactar a forma como setor jurídico, entre eles a advocacia, atua. Uma tendência que deve afetar igualmente todos os demais segmentos da economia e da sociedade.  No universo da advocacia, as tecnologias de IA foram, a princípio, avaliadas de três formas: Com discriminação, preocupação e vistas como desafios. O primeiro implica na grande resistência inicial que o uso de tecnologias de IA teve junto aos profissionais e entidades de classe, sopesando a questão da redução de postos de trabalho, tanto nos escritórios de advocacia, quanto nos departamentos jurídicos, além de um ceticismo genalizado de que a solução dos problemas estava na tecnologia. O temor ganhou um grau a mais com a chegada da IA generativa, que envolve modelos de aprendizagem da máquina que, com base na análise de grande volume de dados preexistentes é capaz de criar conteúdo semelhante aos inéditos, sejam de vídeos a áudios e textos, meio pelo qual o setor jurídico desenvolveu sua atividade desde sua criação. O presidente do Supremo Tribunal norte-americano, John Roberts, foi muito assertivo ao afirmar que o potencial das tecnologias de IA mudará o modo de trabalho de todos os operadores do Direito, mas tem consigo a angústia de que isso possa desumanizar a lei. Essa observação contém duas verdades: Os sistemas de IA estão acelerando grandes mudanças no sistema jurídico e que o Direito tem uma forte tradição na cultura do humanismo, no sujeito de direito e na garantia do princípio da dignidade do ser humano. Contudo, a tecnologia não incrementará vulnerabilidades neste campo se, na prática, cada profissional do Direito empregar os sistemas de IA para tornar a justiça mais eficaz e acessível. A segunda frente envolve os vieses éticos, de transparência e de conformidade, uma vez que o Brasil não consegue evoluir em seu Marco Regulatório da IA (PL 2.338/23), cuja votação vem sendo adiada no Congresso Nacional por falta de consenso entre os parlamentares. Esse tipo de impasse entre avanço e recuo sobre os sistemas de IA, contudo, poderá ser superado pela possibilidade, mesmo sem regramento de conformidade,  de que haverá supervisão humana a cada progresso das tecnologias de IA, aliado às vantagens disponíveis para toda a sociedade. Muitos estudos têm apontado que os analistas jurídicos, os bacharéis de Direito que realizam serviços de apoio nos escritórios, como pesquisas jurídicas, correm mais risco de perder mais rapidamente seus postos para a tecnologia, porque os softwares conseguem processar dados mais rapidamente do que qualquer ser humano, em diferentes idiomas com possibilidade de análise, resumo e aplicação enquanto tese dentro de possíveis litígios. Dados de relatório da Goldman Sachs apontam que a IA Generativa pode substituir até 44% da profissão jurídica. Mas isso tem de ser examinado, porque estamos falando de tarefas burocráticas e repetitivas, que consomem tempo precioso do trabalho estratégico advocatício. Aos poucos, o temor de que as tecnologias de IA generativa iriam ocupar o lugar dos advogados veio diminuindo. Haverá mudanças, disrupções, mudanças, mas nada acontecerá de afogadilho. Neste cenário, porém, o advogado terá de conhecer e incorporar algumas ferramentas tecnológicas fundamentais para seu trabalho ou ficará para trás. No dia a dia, a IA vem ajudando os advogados e demais profissionais do setor jurídico a encontrar soluções criativas e adotar um novo mindset. Até um fato simples, como um aplicativo de busca amplia a possibilidade da pesquisa on-line no exercício da advocacia, seja pela quantidade ou qualidade da informação que reúne, e está provado que isso aumentar a autoestima cognitiva do pesquisador que, unida à tecnologia, permitirá avaliar os dados encontrados e a ensejar uma produtividade inovadora. Na tentativa de revisitar esse processo da advocacia e da tecnologia, sistematizei cinco fases da gestão jurídica pelas quais passam os escritórios no Brasil ao mesmo tempo. Temos desde bancas que não utilizam ferramenta tecnológica alguma até as que empregam IA generativa em larga escala. Na fase 1, estão os escritórios sem sistemas tecnológicos digitais. Na fase 2, estão os que utilizam algumas ferramentas. Na fase 3, estão as que utilizam uma série de serviços tecnológicos disponibilizados pelas law techs. Na fase 4, estão os que empregam uma plataforma para gerir os serviços da banca e, por fim, na fase 5, aqueles que empregam as tecnologias da IA generativa. No Brasil de tantas contradições, esses 5 modelos de escritórios de advocacia convivem ao mesmo tempo. Podemos ter como marco inicial da história da tecnologia na advocacia brasileira a década de 1980/1990, quando teve início a lenta automação dos escritórios de advocacia. Temos de lembrar que em 1974, foi criada a primeira empresa brasileira (estatal) de fabricação de computadores, a Cobra (Computadores Brasileiros S.A.), mas o computador pessoal demorou para ingressar nos escritórios dos advogados brasileiros. A internet só viria em 1995 e o primeiro provedor de e-mail viria no ano seguinte. O e-mail foi marcante para o dia a dia da advocacia, porque permitia comunicação mais rápida, eficiente e segura para enviar e receber mensagens dos clientes, que atualmente vem sendo substituído por aplicativos, mas teve um reinado longo. Nos anos 2000, cresceram as possibilidades digitais de comunicação, pesquisa e gestão. O processo judicial eletrônico é implantado em 2006 pelo TJ/SP, seguido pelas demais cortes do país, dando o start na automação do Judiciário, tendo sofrido muitas resistências. Hoje, a digitalização é vista como altamente positiva, tendo sido ampliada durante a pandemia (2020/2021) com as audiências on-line. Nesse "balaio" tecnológico, as soluções das lawtechs para atender às necessidades dos escritórios de advocacia continuam a se expandir, apresentando ferramentas que resultam em trabalho rápido, mais produtivo e mais barato, automatizando documentos, mediando conflitos on-line, prospectando novos serviços e fazendo análises preditivas, entre outras ações. Enfim, abrindo novas oportunidades em um mercado cada dia mais concorrido. No momento, a grande demanda está voltada à gestão de automação de contratos e gestão do contencioso. As plataformas tecnológicas mudaram a forma como os escritórios e departamentos jurídicos trabalhavam e gerenciavam suas competências. O Legal Ops - Legal Operations, por exemplo, potencializa um conjunto de processos estratégicos e inovadores para assegurar boas práticas jurídicas, de tecnologia (com uso intensivo de IA), de negócios, de transparência  e financeiros, melhorando a gestão do contencioso, principalmente quando o escritório reúne demandas da advocacia de volume. Os sistemas da IA generativa são o presente/futuro da advocacia. O "aprendizado da máquina" que, com base em dados brutos, geram novos e inéditos conteúdos, popularizou o uso dessas ferramentas tecnológicas de IA, como o Chat GPT, Google Bard, Perplexity AI, Stable M, Dixa e outros chatbots de linguagem. A tendência é que grande parte dos advogados esteja aberta ao potencial da IA generativa para integrar em seu trabalho jurídico e, dessa forma, gerar novos insights. A profissão não deixará de existir, até porque onde há novas realidades surgindo, haverá novos conflitos e mais os advogados serão requisitados para representar as partes e suas demandas.
Os avanços da tecnologia continuam a surpreender, trazendo consigo novas preocupações sobre a privacidade, especialmente em uma área tão pessoal quanto os dados provenientes do nosso cérebro. Em uma discussão hipotética, os dados dos nossos pensamentos, agora conhecidos como neurodados, poderiam ser capturados e utilizados para análises preditivas e de mercado. Apesar de já compartilharmos muitas informações pessoais na internet, a necessidade de proteger os dados que emanam diretamente de nossas mentes levanta questões éticas urgentes. Recentemente, observou-se um aumento nas regulamentações sobre privacidade de dados pessoais, abarcando desde impressões digitais até reconhecimento facial. Ainda assim, as ondas cerebrais representam a próxima fronteira dos dados pessoais e continuam a ser um tema de debate acalorado em várias jurisdições. Na Espanha, França e pela União Europeia através da GDPR (Regulamento Geral de Proteção de Dados), até em organizações internacionais como a ONU e no Brasil, medidas estão sendo implementadas para proteger essas informações como dados pessoais confidenciais e impedir a descodificação neural não autorizada, assegurando, assim, a privacidade mental. Nos Estados Unidos, o estado do Colorado1 destacou-se ao expressar preocupações significativas sobre neurotecnologias que podem "monitorar, decodificar e manipular a atividade cerebral". A legislação daquele estado norte-americano requer que as empresas ofereçam aos indivíduos a possibilidade de corrigir ou excluir seus dados neurais ou optar por não compartilhá-los. A interação entre a neurociência e a Inteligência Artificial (IA) está se expandindo rapidamente, aumentando tanto a diversidade de usos quanto os desafios e riscos potenciais. Isso tem acentuado a necessidade de regulamentar a intimidade subjetiva da mente e o reconhecimento dos chamados neurodireitos. Em resposta, muitos legisladores e pesquisadores defendem que a proteção dos neurodados deve ir além das regulamentações nacionais, necessitando da cobertura de tratados internacionais de direitos humanos. Essa necessidade surge pelo risco de manipulação de características sensíveis, como etnia, crenças religiosas ou orientações políticas, que poderiam resultar em discriminações e comprometer a singularidade do indivíduo e suas escolhas. Nessa linha, o Chile foi o primeiro país do mundo - e único até agora - a dispor sobre a neuroproteção digital em sua Constituição, determinando a regulação dos avanços da neurotecnologia. No Brasil, a Emenda  Constitucional 115, de 20202, alterou o capítulo do artigo 5º da Constituição, inserindo a proteção de dados como um direito fundamental do povo brasileiro, equiparável ao direito à vida, à liberdade e ao acesso à justiça. Especificamente quanto aos neurodados, está em trâmite o Projeto de Emenda Constitucional n. 29/2023 para inclusão do inciso LXXX no artigo 5º da CRFB, no intuito de assegurar a integridade mental e a transparência algorítmica, ante os avanços da neurociência e da neurotecnologia. Esse debate sobre os neurodados não está tão distante de nossa realidade quanto podemos imaginar. Técnicas como a ressonância magnética funcional e eletroencefalografia já são comumente utilizadas para coletar dados sobre atividades eletromagnéticas do cérebro. A indústria da neurotecnologia, prevista para faturar aproximadamente US$ 15 milhões este ano, é impulsionada por inovações significativas, como as da empresa Neuralink, que desenvolveu uma interface cérebro-computador implantando um chip em um cérebro humano e da Universidade de Tecnologia de Sydney, que criou um sistema para decodificar pensamentos e transformá-los em texto. Ainda no contexto da lei de privacidade de dados pessoais do Colorado, a proteção estende-se aos dados neurais gerados pelo cérebro, medula espinhal e rede de nervos que transmitem mensagens pelo corpo. Isso busca abrigar as tecnologias cerebrais no âmbito do consumidor, uma área em que os dados relacionados à saúde já possuem legislação específica. As empresas, portanto, estão proibidas de coletar, processar e vender esses dados sensíveis. A fundação Neuro Rights3, uma organização sem fins lucrativos, divulgou uma pesquisa com 30 empresas de neurotecnologia de consumo sobre políticas de privacidade, revelando resultados alarmantes. Apenas uma companhia limitava o acesso aos dados neurais de forma eficaz e quase dois terços, em diferentes circunstâncias, compartilhavam esses dados com terceiros. Pior ainda, duas indicaram que já comercializavam neurodados, sublinhando o potencial comercial dessas informações. Portanto, enquanto a neurotecnologia promete grandes avanços, ela também traz riscos significativos que exigem uma regulamentação cuidadosa para proteger a privacidade mais fundamental - a privacidade de nossos pensamentos, nossa neuroprivacidade. __________ 1 Disponível aqui. 2 Disponível aqui. 3 Disponível aqui.
A discussão sobre a regulamentação da Inteligência Artificial (IA) no Brasil ainda não atingiu um consenso, com divergências marcantes entre as duas principais instâncias legislativas do país. Na Câmara dos Deputados tramitou o PL 21/2020, aprovado pelos parlamentares, mas considerado muito genérico e principiológico. Por outro lado, o Senado Federal formou uma Comissão de Juristas encarregada de desenvolver um anteprojeto que contemplasse diversas propostas, incluindo os PLs 5.051/2019, 872/2021 e o já mencionado PL 21/2020, além de considerar as contribuições do setor público, empresarial, da sociedade civil e da academia. O resultado foi a elaboração do PL 2338/2023, apresentado pelo presidente do Senado, Rodrigo Pacheco (PSD-MG), com o objetivo de "proteger os direitos fundamentais e assegurar a implementação de sistemas seguros e confiáveis, beneficiando a pessoa humana, o regime democrático, e promovendo o desenvolvimento científico e tecnológico".1 À medida que cresce o uso Inteligência Artificial, aumenta o interesse em regular os sistemas de IA de forma pontual. É o caso do projeto de lei 370/24, da deputada Jandira Feghali (PC do B- RJ), aprovado na Câmara e em análise no Senado, voltado a aumentar a pena de crimes de violência on-line cometidos contra mulheres por meio do uso de deepfakes (alteração digital de imagens e áudios falsos empregando IA, que parecem reais) e demais tecnologias. A pena de 6 meses a 2 anos de reclusão pode ser agravada para até 3 anos, se houver uso de tecnologias de IA. Este tipo de delito resulta em danos sociais, profissionais e emocionais para as vítimas. Um caso que serviu de inspiração a este Projeto de Lei foi o episódio envolvendo alunas de um tradicional colégio do Rio de Janeiro, no final de 2023. Alguns colegas das adolescentes usaram tecnologia de IA para remover as roupas de mais de 20 alunas. As imagens falsas (nudes) foram disparadas em grupos de aplicativos de troca de mensagens. Este delito é análogo à simulação e participação de criança ou adolescente em material pornográfico realizado por adulteração de imagens (deekfakes), uma vez que as estudantes eram menores de idade. A deepfake de violência de gênero viola uma série de direitos da vítima: Proteção de Dados Pessoais As deepfakes podem envolver o uso não autorizado de dados pessoais (como a imagem de alguém) para criar conteúdo falso, violando leis de proteção de dados que visam a proteger a informação pessoal contra uso indevido.  Privacidade O uso de imagens para criar vídeos ou fotos falsas invade a privacidade da vítima, expondo-as a situações constrangedoras ou difamatórias sem seu consentimento. Honra A criação e disseminação de deepfakes podem difamar a vítima, prejudicando sua reputação e honra através da associação com comportamentos ou situações falsas. Autoimagem Deepfakes podem afetar negativamente a percepção que uma pessoa tem de si mesma, causando danos emocionais e psicológicos. O resultado do conteúdo gerado pode ser falso, mas utiliza dados pessoais verdadeiros, violando também, no caso brasileiro, a Lei Geral de Proteção de Dados (LGPD). Há até quem fale que está em curso uma nova epidemia de violência contra as mulheres no ciberespaço. De acordo o Wired, somente nos primeiros nove meses de 2023, cerca de 240 mil vídeos deepfake foram carregados nos 35 principais sites de pornografia do mundo. Já há legislações que criminalizam compartilhamento não consensual de deepfake on-line com fins maliciosos em alguns Estados norte-americanos, como Califórnia, Nova York, Texas e Virginia, e em países, como Austrália, África do Sul e Grã-Bretanha. Está em curso uma regulamentação similar no Parlamento Europeu, Canadá e Colômbia, uma vez que cresce entre os legisladores a preocupação em criminalizar deepfakes usadas como meio de abuso contra mulheres. De acordo com a Fundação MyImageMyChose, as deepfakes abusivas saíram do patamar de 144 mil em 2019 para 270 mil neste ano, crescendo 1.780% e vistas 4 bilhões de vezes.  A ampliação do uso das deepfakes se deve a uma rápida evolução da tecnologia de IA, que se tornou mais acessível, não sendo mais necessário amplos conhecimentos técnicos para utilizá-la. A produção de um vídeo deepfake, por exemplo, não leva mais do que 30 minutos e não tem custos. Qualquer selfie postada on-line pode ser alvo de deepfake criada a partir desta imagem, ampliando os abusos de gênero relacionados à tecnologia. Mulheres em todo o mundo vem sendo vítimas desta violência digital, fomentada pelas deepfakes maliciosas, cujos algoritmos aprendem por meio da reprodução, sendo capazes de manipular atributos como olhos, boca, nariz, cor dos olhos, expressão, sincronização dos movimentos dos lábios, movimentos corporais, com um resultado que nem sempre é possível detectar que é falso. Se antes a divulgação de conteúdos íntimos sem consentimento eram uma ameaça, agora o risco se aprofunda porque as ferramentas de tecnologia para criar deepfakes geradas por IA se tornaram massivas, fáceis de usar e hiper-realistas. As vítimas sofrem todo tipo de abuso facilitado pela tecnologia, podendo se constituir em formas de controlar, intimidar, isolar calar e envergonhar seus alvos, especialmente mulheres. Dados do Centro para Inovação em Governança Internacional apurou em 2020, em entrevistas com mais de 18 mil participantes em 18 países, 60% dos entrevistados tinham sofrido violência de gênero em plataforma digitais e redes sociais. Uma série de estudos e pesquisas apontam que as deepfakes abusivas constituem um novo risco para as mulheres no universo digital, uma vez que se tornaram uma importante ferramenta para perpetrar ameaças e abusos de gênero. A deepkafe não é tecnologia recente. O termo se tornou público em 2017, quando uma série de fotografias de atrizes famosas foram recortadas e incorporadas a corpos de atrizes de filmes pornôs e postadas na Reddit (rede social norte-americana). No ano seguinte, viralizou um vídeo falso do ex-presidente norte-americano, Barack Obama, expressando um comportamento atípico e raivoso. Embora estejam mais presentes nas campanhas eleitorais, as deepfakes constituem a maioria de vídeos sexuais não consensuais, segundo pesquisa da Sensity AI. Essa nova ferramenta tecnológica vem sendo usado por homens com padrão de dominação ou controle coercitivo sobre mulheres, o mesmo verificado em postagens de imagens íntimas (nudes) não consensuais na internet, que acabaram por ser alvo de regramento em grande parte do mundo. No Brasil, por exemplo, temos a Lei de Combate a Crimes Cibernéticos ou Lei Carolina Dieckmann (lei 12.737/12)2, que incluiu no Código Penal a tipificação de crimes virtuais e delitos informáticos, assegurando o direito à privacidade e à proteção de dados pessoais. A atriz Carolina Dieckmann deu nome à Lei porque teve seu computador invadido e suas fotos íntimas expostas na internet ao se negar a ser extorquida por cibercriminosos e ter denunciado o delito. Este diploma legal é similar à Ley Olimpia do México3, que impõe pena de 6 anos de prisão para quem divulgar, sem consentimento, imagens íntimas. A Lei tem o nome da ativista Olimpia Coral Melo, que sofreu este tipo de violência quando era adolescente e pensou em suicídio diante da humilhação sofrida. Pela legislação mexicana, as violências digitais são "atos de agressão, hostilidade, ameaças, insultos, vulnerabilidade de dados e informações privadas (...) através das tecnologias de informação e comunicação, plataformas de Internet, redes sociais, correio eletrônico, aplicativos ou qualquer outro espaço digital e atente contra a integridade, a dignidade, a intimidade, a liberdade, a vida privada ou direito humano das mulheres". As ferramentas de deepfake, originalmente desenvolvidas para aplicações legítimas como criações artísticas, entretenimento, educação, restauração histórica, e comunicação e marketing, enfrentam o desafio crítico do uso indevido que pode promover a violência de gênero. Para combater este abuso, vários obstáculos precisam ser superados, incluindo o rastreamento de autores, a remoção de conteúdo prejudicial, o desenvolvimento de ferramentas mais eficazes para detectar vídeos artificialmente criados, a natureza sem fronteiras da internet e a rápida evolução das tecnologias de inteligência artificial. Além da necessidade de avanços e aprimoramentos na legislação, a implementação de programas educativos dirigidos a estudantes de todos os níveis escolares se apresenta como um passo fundamental. Esses programas devem visar orientar e sensibilizar sobre o tema, bem como sobre o impacto negativo sofrido pelas vítimas, predominantemente mulheres, que têm seus direitos ameaçados. __________ 1 https://legis.senado.leg.br/sdleg-getter/documento?dm=9347622&ts=1709906186049&disposition=inline 2 https://www.planalto.gov.br/ccivil_03/_ato2011-2014/2012/lei/l12737.htm 3 https://www.infobae.com/sociedad/2023/10/11/el-congreso-aprobo-la-ley-olimpia-contra-la-violencia-digital/ 4 https://myimagemychoice.org/
terça-feira, 12 de março de 2024

Aplicação da IA generativa e inovação legal

As tecnologias de Inteligência Artificial Generativa (IAGen) vem trazendo soluções inovadoras para os escritórios de advocacia e expondo o segmento à constante evolução e novas possibilidades.  A estimativa é que a IA aplicada à advocacia chegue a movimentar US$ 675 milhões até 2032, crescendo a uma taxa espantosa de 30,7% ao ano, de 2023 a 2032.1 Com grande potencialidade, a IA generativa faz mais do que dispor de sistemas que auxiliam a produtividade e a eficiência no ambiente legal. Ela apresenta uma trilha de inovação, que pode ser resumida como a implantação de uma ideia inovadora que beneficia clientes e demais stakeholders do escritório.  O termo inovar é originário do latim "innovare" e pode ser compreendido como renovar, criar algo novo, implicando em evolução. O conceito de inovação passa a ser empregado com mais ênfase a partir dos séculos XX para explicar a revolução tecnológica e, no século atual, o termo ganha um caráter polissêmico, aglutinando diferentes significados. A inovação desencadeia novos modelos, processos e soluções nos serviços jurídicos, porque as mudanças não param de acontecer, propiciando uma vantagem competitiva, que cria valor para a organização. Aqueles que não adotarem a inovação trazida pela IA generativa tendem a ser superados pela concorrência. A história da inovação é dividida em quatro eras distintas, cada uma marcando uma fase significativa no desenvolvimento humano e tecnológico. A primeira é a Era do Gênio Inventor, exemplificada por figuras históricas como Thomas Edison, que acumulou mais de 2 mil patentes, simbolizando o auge da inovação individual. Segue-se a era dos Centros de Pesquisa e Desenvolvimento, caracterizada pela colaboração institucional na busca por avanços tecnológicos. A terceira era é marcada pela emergência do Capital de Risco e Startups, facilitando uma sinergia sem precedentes entre o empreendedorismo, empresas e universidades, promovendo a inovação aberta. Esta progressão nos traz à era atual, onde a inovação tecnológica, especialmente através da Inteligência Artificial (IA), está transformando setores inteiros. No contexto jurídico, a adoção de tecnologias de IA pelas firmas de advocacia não apenas as torna mais sustentáveis, mas também posiciona essas organizações para um crescimento robusto a médio e longo prazos. A Consultoria Mackenzie & Company cita, com base em pesquisas, que há oito fundamentos da inovação: aspiração, escolha, descobrimento, evolução, aceleração, escala, extensão e mobilização. O destaque é para as duas primeiras. "É particularmente crucial garantir que os líderes estabeleçam aspirações ousadas e tomem decisões difíceis quando se trata de alocação de recursos e movimentos de portfólio. Para fazer isso com sucesso, muitos líderes precisarão mudar suas mentalidades ou abordagens de gestão". ² Embora uma lista definitiva que encapsule todos os pilares da inovação possa não existir, esses conceitos ressoam profundamente com os aspectos essenciais do processo inovador. Concordo particularmente com a McKinsey quanto à primazia da 'aspiração' como componente fundamental. Acredito que a aspiração não somente orienta e dirige os esforços de inovação, mas também atua como a própria fonte de inspiração que impulsiona a busca incessante por transformações significativas e soluções inovadoras. Mais do que isso, a aspiração reflete a alma do ser humano, a força motriz por trás da nossa incessante jornada por conhecimento e superação. É essa característica intrinsecamente humana que assegura que a máquina, por mais avançada que seja, nunca substituirá completamente o homem. A aspiração, como expressão da nossa essência, motiva a exploração de novos territórios e a realização de potenciais ainda inexplorados, posicionando-se assim como o verdadeiro coração da inovação. Nessa perspectiva, fica evidente que a união entre aspiração humana e capacidade tecnológica oferece o mais fértil terreno para o florescimento da inovação, sublinhando a ideia de que, no cerne da verdadeira inovação, sempre residirá a alma humana, algo que nenhuma máquina pode replicar ou substituir. As aplicações da IA Generativa envolve uma integração entre advogados e tecnologia, transformando a maneira como o exercício da advocacia acontece. Há exemplos bem pontuais que atendem às necessidades dos operadores do Direito. Um destaque é a análise preditiva, capaz de prever resultados jurídicos. As tecnologias de IA têm a vantagem da velocidade de processamento para analisar grandes conjuntos de dados em processos complexos, envolvendo jurisprudência e resultados de julgamentos anteriores, o que propicia muitos insights valiosos sobre a probabilidade de resultados para determinado conflito que foi trazido ao Judiciário. Neste tópico, dois fatores são importantes: a escalabilidade e a avaliação dos riscos potenciais. Outro uso significativo da IA é a análise e a revisão de contratos diversos para analisar a conformidade legal, as cláusulas essenciais, redação de documentos, segurança e privacidade de dados, possíveis ambiguidades e conflitos e riscos, ampliando medidas de segurança diante de informações confidenciais e dados sensíveis. O terceiro grande segmento de aplicação da IA é a automação de tarefas repetitivas, a parte do "trabalho braçal" da advocacia.  Os sistemas de IA realizam pesquisas, revisão de documentos, resumos de textos jurídicos extensos, verificação de consistência, sendo os sistemas de IA estão sempre atualizados diante de novas leis e jurisprudência. As aplicações inovadoras (quase infinitas) trazidas pela IA Gen ao universo jurídico envolve diferentes paradigmas e suscita algumas dúvidas sobre riscos éticos. Por isso uma frase de Norbert Winer, considerado fundador da cibernética, traz uma preocupação legítima sobre o uso responsável da IA: "Se usarmos, para atingir nossos objetivos, um órgão mecânico em cujo funcionamento não podemos interferir de forma eficaz ... é melhor estarmos bem certos de que o propósito colocado na máquina é aquele que realmente desejamos". O uso responsável da Inteligência Artificial Generativa no Direito suscita questões éticas cruciais que exigem atenção cuidadosa. Entre as principais preocupações estão a necessidade de garantir justiça e imparcialidade, evitando que os algoritmos perpetuem preconceitos existentes ou introduzam novas formas de discriminação. A transparência também é vital, permitindo que os usuários compreendam como as decisões são tomadas pelos sistemas de IA e possam questioná-las quando necessário.  Além desses pontos, a questão da responsabilidade pelos atos realizados por sistemas de IA deve ser claramente definida, assegurando que haja mecanismos para lidar com erros ou resultados adversos. Por fim, a proteção da privacidade e a segurança dos dados manipulados por sistemas de IA são imperativas para manter a confiança e a integridade dos processos jurídicos. Para enfrentar esses desafios éticos, é essencial o desenvolvimento e a implementação de diretrizes éticas robustas, a formação de comitês de ética especializados e a adoção de práticas de desenvolvimento e uso de IA transparentes e responsáveis. Ao abordar proativamente essas questões éticas, o setor jurídico pode maximizar os benefícios da IA Gen, enquanto minimiza os riscos e garante o respeito aos princípios éticos fundamentais. O emprego de algum algoritmo de IA generativa aproxima as bancas e/ou organizações de seus objetivos, porque traz a interdisciplinaridade em um círculo virtuoso e de arquitetura híbrida, que possibilita aprendizado profundo, reconhecimento de  padrões, desenvolvimento de raciocínio crítico e obtenção de  respostas para as demandas apresentadas. Entramos em uma etapa que em que a IA caminha para modelar o futuro em vez de apenas prevê-lo, será uma etapa de IA para IA, com grande confiança nos algoritmos e ampliação da criatividade computacional com aplicações no segmento das artes e conexão entre humanos e chips, uma evolução cada vez mais disruptiva. Embora a Inteligência Artificial Generativa esteja revolucionando a prática jurídica, é fundamental reconhecer que ela serve como uma ferramenta de ampliação das capacidades humanas, e não como substituta do raciocínio jurídico avançado e da expertise técnica. Para explorar plenamente o potencial da IA Gen, os advogados devem continuar se aprimorando e expandindo suas habilidades técnicas. Quanto mais profundo o entendimento e a habilidade técnica do advogado em relação às nuances da IA, maior será sua capacidade de aproveitar essa tecnologia para resultados inovadores e personalizados. Portanto, é uma ilusão pensar que a IA Gen substituirá os advogados; ao contrário, ela potencializa o trabalho daqueles profissionais que se dedicam a compreender e integrar essas ferramentas em sua prática. Isso distingue claramente os profissionais cujas atividades são predominantemente repetitivas e suscetíveis à automação, daqueles cujo trabalho exige discernimento, criatividade e profundo conhecimento jurídico. A capacidade de combinar a expertise humana com as vantagens da IA Gen define o novo paradigma do profissional jurídico moderno, marcado por uma sinergia entre tecnologia e inteligência humana, elevando a prática jurídica a novos patamares de eficiência e inovação. __________ 1 Disponível aqui. 2 Disponível aqui.
Quem já não teve dificuldades em convencer um cliente sobre o potencial positivo das tecnologias da Inteligência Artificial (IA) Generativa na solução de um conflito empresarial que ele trouxe ao escritório de advocacia, seja voltado à prática tributária, trabalhista, contratual, consumerista, recuperação jurídica etc.?  A Inteligência Artificial Generativa (IAGen) vem impactando o mundo jurídico de forma transformadora como em outros segmentos. Tanto, que pesquisa da Goldman Sachs de 20231,  sob o título "Os efeitos potencialmente grandes da inteligência artificial sobre o crescimento econômico" aponta que 44% das tarefas realizadas em escritórios de advocacia podem ser automatizadas. A IA Generativa está cada vez mais presente nas decisões processuais e nas oportunidades que se abrem para a advocacia e outras áreas do direito. A partir do uso de chatbots de IA, como o ChatGPT, Google Bard, Bing Chat, Perplexity, Replika e similares (LLMs), com capacidade de produzir conteúdos semelhantes aos elaborados por humanos, a resistência ao seu uso nas práticas jurídicas vem sendo quebrada. A versatilidade e qualidade dos textos torna os riscos - como a chamada alucinação ou conteúdo incorreto da IA -  relativizados diante das inúmeras vantagens. É através das facilidades trazidas pela IAGen que os advogados podem abrir mão de tarefas repetitivas para as máquinas, passando mais tempo na solução estratégica dos problemas dos clientes. Um grande volume de dados (documentos), por exemplo, pode ser organizado, indexado e gerido rapidamente pela IA, com grande precisão. A plataforma pode, inclusive, apontar a ausência de documentos que seriam importantes para a causa.  Quanto tempo se economizou nesse processo? Certamente, foram meses de trabalho humano, poupou-se além do tempo, muitos recursos. Paralelamente, os modelos de algoritmos treinados no aprendizado da máquina com dados jurídicos específicos podem apontar caminhos e cruzá-los em consonância com a legislação, a jurisprudência, a doutrina e até decisões de determinados tribunais, turmas e magistrados.  Por meio da  IA Generativa podemos usar os "prompts "ou perguntas que ajudam a encontrar uma solução, reforçando a frase de Lévi-Strauss: "o cientista não é o homem que fornece as verdadeiras respostas; é quem faz as verdadeiras perguntas". Quem já utilizou uma ferramenta de processamento de linguagem natural (LLM) de IA saber que o mais importante é fazer a pergunta certa para ter acesso aos insights gerados pelos grandes conjuntos de dados de entrada. Também é possível utilizar o acesso a uma base de dados (big data) e algoritmos (aprendizado da máquina) para chegar às análises preditivas, que conseguem estabelecer a probabilidade de resultados futuros e seus impactos. Isso aumenta as chances de vitória em processos judiciais ao analisar as informações disponíveis, antecipando possíveis resultados.  Se quisermos fazer um paralelo podemos comparar, a grosso modo, a análise preditiva a um modelo estatístico, com várias etapas começando pela definição do objetivo (sucesso no conflito apresentado pelo cliente), depois coleta, análise de dados e modulação de resultados, empregando técnicas como regressão linear, séries temporais, árvores de classificação, dentre outras.  As correlações que a IA Generativa realiza em grandes conjuntos de dados acabam por desvendar conhecimentos que não eram conhecidos. É o caso, por exemplo, de sistemas de alerta climático precoce, que nada tem a ver com o mundo jurídico, mas que ajuda a antecipar riscos, principalmente nestes tempos de mudanças climáticas, possibilitando o envio de alertas, que  salvam milhões de vidas.  Duas questões estão ligadas ao uso de IA pelos escritórios de advocacia e interação com os clientes: ética e supervisão das máquinas. É fundamental informar aos clientes que o escritório utiliza ferramentas de tecnologia IAGen para que possa atender com mais acurácia e rapidez as demandas. Tornou-se fundamental explicar detalhadamente como isso se dará ao cliente e assegurar confidencialidade dos dados e prevenção quanto a diferentes tipos de riscos, como possíveis ataques cibernéticos.  O emprego de dados de clientes, quando utilizados para treinar a Inteligência Artificial somente serão realizados em ambientes seguros para evitar vazamento ou uso indevido. A segurança no manuseio dos dados dos clientes deve ser uma das principais preocupações para os escritórios de advocacia.  Além da transparência e do emprego ética no uso da IA dentro banca de advocacia, é fundamental ter supervisão humana para evitar que as tecnologias de IAGen cheguem a alguma conclusão que não correspondam à verdade, fenômeno chamado de "alucinação" da máquina. Portanto, o resultando precisa ser confiável para benefício do cliente e do processo.  O uso de IA Generativa em nada modifica as relações profissionais entre clientes e advogados porque estão bem alicerçadas na lei Federal 14.365/2022, que atualizou o Estatuto da Advocacia (lei 8.906/1994), mas é necessário ampliar o grau de transparência, explicar em detalhes, se necessário, como a tecnologia funciona para que o cliente afaste qualquer tipo de temor. Muitas vezes, ele confia na lei, nos advogados, mas guarda restrições às tecnologias que não conhece em profundidade.  Nessa proximidade cada vez maior entre a prática jurídica e as tecnologias de IAGen fica uma pergunta: os advogados devem ser especialistas em Inteligência Artificial ou trabalhar em parceria com especialistas em informática? Uma coisa é certa, os advogados serão fundamentais para treinar a ferramenta de IAGen e orientar os clientes e precisarão ter certo nível de conhecimento de informática para serem mais competitivos e entregarem aos clientes soluções  trazidas pelas tecnologias disruptivas. __________ 1 Disponível aqui.
terça-feira, 19 de dezembro de 2023

AI Act: Um marco na regulação digital do mundo

O Parlamento Europeu e Estado-membros chegaram a um acordo histórico sobre a regulação das diferentes aplicações da Inteligência Artificial, baseada na garantia de direitos fundamentais e no risco proporcional dos sistemas de Inteligência Artificial, permitindo acompanhar os avanços das novas tecnologias. Essa primeira Lei mundial a reger a IA terá impacto mundial, uma vez que sua aplicação é extraterritorial, pois abrange fornecedores e usuários localizados fora da UE, que tenham sistemas de IA em uso na União Europeia. Para os europeus, o acordo em torno da AI Act possibilitou uma IA na qual se pode confiar, depois de uma longa discussão, que começa na Comissão Europeia em abril de 2021, demonstrando a posição de vanguarda da União Europeia na regulação do segmento digital. Anova Lei deve começar a viger em 2025 ou início de 2026. O comentário do correlator do anteprojeto da UE, o romeno Dragos Tudorache, sintetiza o ineditismo e importância da Lei: "A UE é a primeira no mundo a estabelecer uma regulamentação robusta sobre a IA orientando o seu desenvolvimento e evolução numa direção centrada no ser humano. A Lei da IA ??estabelece regras para modelos de IA grandes e poderosos, garantindo que não apresentam riscos sistêmicos para a União e oferece fortes salvaguardas aos nossos cidadãos e às nossas democracias contra quaisquer abusos da tecnologia por parte das autoridades públicas".1 Essa pioneira legislação mundial sobre IA, destacada pelo "The Economist" como evidência da aspiração da União Europeia em se tornar um superregulador mundial no campo, tem um impacto notável devido à sua aplicação extraterritorial porque o regramento tecnológico não conhece os limites nacionais e a prova deste chamado "Efeito Bruxelas" é o Regulamento Geral de Proteção de Dados (RGPD) da União Europeia que serviu de parâmetro para leis similares em diferentes países, inclusive no Brasil , com a LGPD (Lei Geral de Proteção de Dados). Para contextualizar o efeito Bruxelas, ele emerge como um fenômeno geopolítico e econômico distinto, onde as políticas e regulamentações formuladas no coração da União Europeia, em Bruxelas, transcendem as fronteiras da própria união, exercendo uma influência profunda e abrangente em escala global. Este efeito se manifesta quando nações e empresas fora da UE, buscando harmonizar suas práticas com padrões reconhecidos internacionalmente ou simplificar suas operações globais, optam por aderir voluntariamente a essas normativas. Assim, as decisões tomadas em Bruxelas moldam indiretamente ambientes regulatórios e comerciais muito além de seus membros, estabelecendo um padrão de fato que se estende por diversos continentes e contextos jurídicos, refletindo o poder normativo e a influência inesperada da União Europeia no cenário mundial. A Lei da IA (AI Act) tem um foco muito forte sobre os riscos da tecnologia, principalmente voltados à segurança nacional, perda de empregos e desinformação on-line. Neste último tópico está o   uso das deepfakes, amplamente empregadas em campanhas presidenciais. Ou seja, supostamente induz-se o eleitor a erro com vídeos e áudios fraudulentos, elaborados com tecnologia de IA. No Brasil, que terá eleições municipais em 2024, já tramita o PL 5.241/2023, incorporado ao PL 1002/2023, que tipifica o crime de conteúdo audiovisual com uso de deepfake. A legislação europeia buscou ser sintética em conceituar IA para não dar margem a dúvidas, seguindo o entendimento da Organização de Cooperação e Desenvolvimento Econômico (OCDE) Trata-se de um " sistema de inteligência artificial (sistema de IA) significa software que é desenvolvido com uma ou mais das técnicas e abordagens no Anexo I e pode, para um determinado conjunto de objetivos definidos pelo homem, gerar resultados tais como conteúdo, instruções, recomendações ou decisões que influenciam os ambientes com o quais interagem". Os sistemas de IA são diferenciados em quatro categorias de risco, desde 'inaceitável' até 'baixo', abrangendo desde biometria e IA no setor de RH até chatbots e videogames. Essa classificação orienta a necessidade de conformidade, com exigências mais rigorosas para categorias de risco mais elevadas. Vale ressaltar que quanto mais alta for a classificação de risco, mais custoso será para as empresas estarem em conformidade com a Lei. A Lei prevê exceções para uso de sistemas de IA classificados como proibidos, quando for utilizado para fins militares e de defesa, para fins de investigação e inovação e por pessoas físicas por motivos não profissionais. Será permitida a identificação biométrica em público para fins legais para buscas de suspeitos procurados pelas autoridades de segurança. O polêmico reconhecimento facial em tempo real tem normas rígidas, podem ser empregados em casos de busca de vítimas de sequestro, tráfico ou exploração sexual, ameaça terrorista, localização ou identificação de suspeito de crimes (terrorismo, tráfico, explicação sexual, rapto, organização criminosa, crime ambiental etc.). À medida que o Parlamento Europeu avançava na formulação da AI Act, emergiram novos desenvolvimentos no campo da Inteligência Artificial, notavelmente os modelos de IA generativa. Essa evolução tecnológica, que surgiu durante os debates legislativos, destacou a necessidade de abordar questões adicionais e complexas. A IA generativa, representando um avanço significativo desde a concepção inicial da AI Act, trouxe à tona desafios e oportunidades únicos, necessitando de consideração especial sob o novo marco regulatório. Para a UE, os sistemas de IA Generativa, que incluem grandes modelos de linguagem (LLMs), capazes de produzir conteúdos originais cobrindo áreas importantes, como educação, saúde, direito, comunicação, etc.com amplo grau de popularidade,  acabaram ganhando uma categoria de risco separada, que se submetem a uma série de obrigações de governança de riscos, dados, desempenho, previsibilidade, interpretabilidade, segurança, dentre outras. Também precisam  fornecer detalhamento público sobre o uso de dados utilizados para treinamento da máquina, protegidos por direitos autorais, seguir obrigações de transparência, fornecendo nome da pessoa física ou jurídica responsável, para evitar tentativas de manipulação.2 De acordo com a Lei da UE, os fornecedores de IA de alto risco devem se preocupar com a gestão de riscos de seus sistemas, desde a concepção e implantar medidas de mitigação. Os dados pessoais sensíveis (etnia, religião, posição política, dados de saúde etc.) somente podem ser utilizados se forem extremamente necessários, com monitoramento. A supervisão humana também está prevista, assim como a informação à autoridade sobre incidentes e aos usuários sobre os dados do sistema. As multas do AI Act podem chegar até 35 milhões de euros ou 7% do volume de negócios global das empresas no caso de IA proibidas; a 15 milhões de euros ou 3% para violações da lei e 7,5 milhões de euros ou 1,5% pelo fornecimento de informações incorretas. As empresas pequenas, médias e startups ficarão sujeitas a multas administrativas. O ponto em questão é saber quem irá regular e como vai fiscalizar o desenvolvimento de milhares de aplicações que avançam com novas atribuições em questão de horas. Em suma, a Lei da IA (AI Act) da União Europeia representa um marco significativo na regulação global da Inteligência Artificial. Ao definir padrões rigorosos e abrangentes, a UE não apenas assegura a segurança e a ética no uso da IA dentro de suas fronteiras, mas também exerce uma influência substancial além delas. O impacto dessa legislação, semelhante ao observado com o RGPD, demonstra o crescente papel da UE como um regulador global de tecnologias emergentes. A AI Act não somente aborda os riscos associados à IA, mas também estabelece um equilíbrio entre inovação tecnológica e proteção dos direitos humanos e da democracia. À medida que nos aproximamos de sua implementação prevista entre 2025 e 2026, o mundo observa atentamente, antecipando as ramificações dessa legislação pioneira para o futuro da IA globalmente. Linha do tempo Dezembro de 2023  Acordo político alcançado pelos co-legisladores    Junho de 2023 Posição negocial do Parlamento Europeu sobre a Lei da IA  Dezembro de 2022 Abordagem geral da Lei do Conselho sobre IA  Setembro de 2022 Proposta de diretiva sobre responsabilidade relativa à IA  Junho de 2022 Lançamento do primeiro sandbox regulatório de IA na Espanha: Fazendo avançar o Regulamento de IA  Dezembro de 2021 Comité das Regiões, Parecer sobre a Lei relativa à IA  Banco Central Europeu, Parecer sobre a Lei AI (.PDF) Novembro de 2021 Conselho da UE: Texto de compromisso da Presidência da SI sobre a Lei da IA ??(.PDF)  Conferência de Alto Nível sobre IA: Da Ambição à Ação (3ª Assembleia da Aliança Europeia de IA)  Comité Económico e Social Europeu, Parecer sobre a Lei da IA  Junho de 2021 Consulta pública sobre Responsabilidade Civil - adaptando as regras de responsabilidade à era digital e à inteligência artificial  Comissão Europeia: Proposta de Regulamento sobre Segurança dos Produtos  Abril de 2021 Comissão Europeia: Comunicação sobre a promoção de uma abordagem europeia à IA   Comissão Europeia: Proposta de regulamento que estabelece regras harmonizadas em matéria de IA  Comissão Europeia: plano coordenado atualizado sobre IA Comissão Europeia: Avaliação de impacto de um regulamento sobre IA Outubro de 2020 2ª Assembleia da Aliança Europeia de IA  Julho de 2020 Avaliação de impacto inicial: Requisitos éticos e legais em IA Grupo de especialistas de alto nível em IA: lista de avaliação final sobre IA confiável (ALTAI) Grupo de especialistas de alto nível em IA: recomendações setoriais de IA confiável Fevereiro de 2020 Comissão Europeia: Livro Branco sobre IA: uma abordagem europeia à excelência e à confiança Consulta pública sobre uma abordagem europeia à excelência e à confiança na IA Dezembro de 2019 Grupo de peritos de alto nível em IA: Pilotagem de uma lista de avaliação de IA fiável Junho de 2019  Primeira Assembleia Europeia da Aliança de IA Grupo de especialistas de alto nível em IA: recomendações de políticas e investimentos em IA Abril de 2019  Comunicação da Comissão Europeia: Criar confiança na inteligência artificial centrada no ser humano Grupo de especialistas de alto nível em IA: Diretrizes éticas para uma IA confiável Dezembro de 2018   Comissão Europeia: Plano coordenado sobre IA Comissão Europeia (comunicado de imprensa): IA fabricada na Europa Comunicação da Comissão Europeia: IA fabricada na Europa Consulta das partes interessadas sobre projetos de diretrizes éticas para uma IA confiável Junho de 2018 Lançamento da aliança europeia de IA Criação do grupo de peritos de alto nível em IA Abril de 2018 Comunicado de imprensa: Inteligência artificial para a Europa Comunicação: Inteligência artificial para a Europa Documento de trabalho dos serviços da Comissão: Responsabilidade pelas tecnologias digitais emergentes Declaração de cooperação em inteligência artificial Março de 2018  Comunicado de imprensa: grupo de especialistas em IA e aliança europeia de IA __________ Fonte - European Commission Disponível aqui. 1 Disponível aqui. 2 Disponível aqui.   
quinta-feira, 9 de novembro de 2023

Impactos da IA generativa no mundo jurídico

A IA Generativa vem revolucionando diversos setores e o mundo jurídico não é exceção. Os desafios da aplicação da IAG nos processo industriais, educação, saúde, consumo vêm sendo debatidos à exaustão, mas no universo jurídico, ainda há muitas interrogações. Ela poderá ser usada para criar conteúdo para sustentar sentenças judiciais? Normas dos Tribunais? Resoluções? Definir Recursos Repetitivos? Atos judiciais de toda a sorte? Temos uma única certeza: Os sistemas de IAG mudarão a forma de litigar que conhecemos atualmente. Certamente, há um uso potencial para essas tecnologias no universo jurídico, mas até onde será possível seguir? A Thomson Reuters Institute1 realizou uma pesquisa nos EUA, Canadá e Reino Unido com escritórios de grande e médio porte sobre o uso da IA Generativa. Para os advogados daqueles países, a ferramenta é considerada útil para o universo jurídico e 3% dos entrevistados já a empregam, mas a maioria (60%) têm reservas quanto ao seu uso imediato. Outra parte significativa (35%) está ponderando se explora ou não a IAG. A pesquisa também apurou que 15% dos escritórios alertaram para o uso não autorizado e 6% proibiram o uso. A tecnologia avança em velocidade superior à legislação, o que pode gerar conflitos, ajustes e remédios tardios, sendo que uma pergunta retórica permanece: A IA poderia ser usada para gerar conteúdo  capaz de embasar decisões judiciais? Apesar das incertezas, uma coisa é certa: essa tecnologia está mudando o modo como entendemos o processo jurídico.Muitos no universo jurídico veem potencial na IA Generativa, mas também expressam cautela quanto à privacidade e  precisão dos dados. A Ética e a IA Generativa O equilíbrio entre inovação e ética é essencial. No Brasil, tanto a Agência Nacional de Proteção de Dados (ANPD) como o Senado Federal têm discutido regulamentações para o uso da IA, buscando um modelo que garanta autonomia e direitos dos  titulares de dados. A Agência Nacional de Proteção de Dados (ANPD) divulgou a Nota Técnica 16 sobre o PL 2.338/23, em tramitação, que regulamenta o uso da IA no Brasil. A agência defende a criação de um Conselho Consultivo, como previsto na LGPD, com abordagem centralizada, a exemplo da adotada pela União Europeia, além insistir independência técnica e autonomia administrativa da ANPD, alterando os dispositivos de 32 a 35 do PL.2 No plano do Judiciário, o Conselho Nacional de Justiça (CNJ) editou a Resolução 332, de 20204, sobre ética, transparência e governança da IA. Há, no âmbito do Judiciário um repositório nacional de IA, que já conta com mis 200 modelos depositados pelos tribunais. Em junho, o órgão anunciou alteração das regras do uso das tecnologias de IA no Judiciário . A  resolução atual  limita o uso  quando o Poder Público não detém direitos autorais, mas o Departamento de Tecnologia da Informação do CNJ é favorável à ampliação do emprego dessas tecnologias. Igualmente importante, é o estudo  coordenado pelo Ministro do Superior Tribunal de Justiça Luis Felipe Salomão e pela Juíza federal Caroline Somesom Tauak, realizado pelo Centro de Inovação, Administração e Pesquisa do Judiciário da FGV5 sobre o uso da IA nas cortes brasileiras , que já esta em sua terceira fase. A primeira aconteceu em 2020 e atingiu 47 tribunais; a segunda, em 2021,  abrangeu o número de ferramentas de IA e  a terceira, realizada no ano passado, aprofudou os processos de treinamento e funcionamento dos sistemas de IA no CNJ, STF, STJ, TST e TRF- 1. A tecnologia, ao mesmo tempo que promete revolucionar, também traz desafios. Há casos em que a IA apresentou informações incorretas, o que evidencia a necessidade de supervisão humana constante. O Cenário Internacional Fora do Brasil, outros países também estão se adaptando. Nos EUA e no Canadá, por exemplo, regras estão sendo estabelecidas para o uso da IA. Tais regras exigem transparência no uso da tecnologia e conhecimento no campo jurídico, de todos os operadores do Direito. No Exterior, os tribunais têm estabelecido regras localizadas para uso da IAG. No Canadá,  por exemplo, a  Corte da província de Manitoba especifica que :"existem preocupações legítimas sobre a confiabilidade e precisão das informações geradas a partir do uso de inteligência artificial. Para abordar estas preocupações, quando a inteligência artificial tiver sido usada na preparação dos conteúdos protocolados na Justiça, os materiais devem indicar como a inteligência artificial foi empregada"6. Nos Estados Unidos também vem crescendo o regramento nos Estados para uso da IAG na Justiça. É o caso de Illinois7, que apresenta a seguinte normativa: "...qualquer parte usando qualquer ferramenta de IA generativa para conduzir pesquisa ou para redigir documentos junto a este tribunal deve divulgar esse emprego, com a divulgação, incluindo a ferramenta específica de IA e a maneira como ela foi usada". Portanto, é possível inferir que será exigido do advogado que conheça mais profundamente as novas tecnologias de IAG e mantenha obediência à legislação; assim como será cobrado dos magistrados competência tecnológica para analisar se a IAG foi empregada, se a considera adequada e se não houve comprometimento de dados confidenciais dos clientes no processo. Para esses dois atores da Justiça, a supervisão humana torna-se praticamente obrigatória.  Sem dúvida, os sistemas de IA generativa auxiliarão os humanos no âmbito jurídico a tomar decisões mais assertivas sobre inúmeras práticas do Direito, como propriedade intelectual, segurança do consumidor, invasão de privacidade, calúnia, difamação, coleta de dados protegidos etc. No entanto, a supervisão humana é essencial para garantir a aplicação ética e eficiente das tecnologias de IAG. Enquanto avançamos, é essencial que o diálogo público continue e que a integração internacional seja priorizada. A IA Generativa é uma realidade e cabe a nós determinar como ela moldará o futuro da Justiça. ______________  1 https://www.thomsonreuters.com/en-us/posts/technology/chatgpt-generative-ai-law-firms-2023/ 2 https://www.gov.br/anpd/pt-br/assuntos/noticias/Nota_Tecnica_16ANPDIA.pdf 3 www.ilnd.uscourts.gov/_assets/_documents/_forms/_judges/Fuentes/Standing%20Order%20For%20Civil%20Cases%20Before%20Judge%20Fuentes%20rev'd%205-31-23%20(002).pdf 4 https://www.aaronandpartners.com/news/mata-v-avianca-the-hidden-dangers-of-using-ai-for-legal-advice/  5 https://atos.cnj.jus.br/atos/detalhar/3429 4 https://ciapj.fgv.br/sites/ciapj.fgv.br/files/relatorio_ia_3a_edicao_0.pdf 6 https://www.manitobacourts.mb.ca/site/assets/files/2045/practice_direction_-_use_of_artificial_intelligence_in_court_submissions.pdf 7 www.ilnd.uscourts.gov/_assets/_documents/_forms/_judges/Fuentes/Standing%20Order%20For%20Civil%20Cases%20Before%20Judge%20Fuentes%20rev'd%205-31-23%20(002).pdf
terça-feira, 5 de setembro de 2023

A IA generativa e o olhar do julgador

A história nos mostra que o humano sempre desejou uma máquina que fizesse o seu trabalho de agir e até mesmo o de pensar. Em 1943, por exemplo, os cientistas cognitivos Warren McCulloch e Walter Pitts apresentaram, na Faculdade de Medicina da Universidade de Illinois, um artigo com a primeira ideia de neurônio artificial1, propondo redes neurais e estruturas de raciocínio artificiais, em forma de modelos matemáticos, que imitam o sistema nervoso humano. A Inteligência Artificial não é uma novidade no mundo, mas os seus resultados estão mais expressivos atualmente, colocando em xeque a nossa interpretação sobre a atuação humana e a própria ideia de humanidade. Isso por conta de um tipo especial de IA, a Inteligência Artificial generativa, cuja tecnologia permite que os algoritmos aprendam (machine learning) padrões de comportamento complexos em grandes conjuntos de dados, e depois utilizam esse aprendizado para criar e desenvolver novos conteúdos. Recentemente vimos que essa tecnologia permite, inclusive, trazer "de volta à vida" a pessoa falecida, como no caso da propaganda da Volkswagen, na campanha "VW Brasil 70: O novo veio de novo", que apresentou a cantora Maria Rita cantando junto de sua mãe, Elis Regina, falecida em 1982, expressando a ideia de que Elis estaria viva atualmente2. Nesse contexto, se temos uma IA que interfere diretamente na sociedade, afetando e influenciando as pessoas em seus comportamentos e decisões, como as notícias, e até mesmo em suas profissões, com as novas ferramentas disponíveis, o Direito não ficaria alheio a este fenômeno, afinal, "é no meio social que o Direito surge e desenvolve-se"3. Mesmo porque ao tratarmos de dados, estamos falando da própria composição da substância humana. Valemos aqui dos ensinamentos do professor Ricardo Hasson Sayeg, que afirma que os dados "também compõem a substância humana, em seu aspecto tecnológico, assim como o aspecto biológico (corpo humano), institucional (cidade), e de direitos fundamentais".4 Nessa linha filosófica, igualmente aproveitamos as lições de Goffredo Teles Junior, ao afirmar que a pessoa humana é a medida de todos os valores5, e as coisas do mundo, inclusive os fatos sociais, "não são considerados, pelo ser humano, como simples dados, como objetos apenas ocupando espaço e tempo, dentro do Universo. [...] Elas tem um sentido, um sentido para o ser humano".6 Ora, sendo a pessoa humana a medida de todos os valores,  não há dúvidas de que o estudo da IA generativa interessa ao estudo do Direito, maiormente em como essa tecnologia e o seu gerenciamento algorítmico podem participar nas decisões judiciais, mesmo porque já temos a IA no funcionamento do próprio judiciário7, realizando movimentos processuais e até mesmo auxiliando a elaboração de teses e textos jurídicos. Essa capacidade de "aprender" absorvendo muitos dados e criar informações novas de maneira autêntica e até mesmo única, torna a IA generativa uma ferramenta poderosa, mas, por enquanto, confiável somente para realização de atividades bem definidas e delimitadas. Chamar esta tecnologia de 'inteligência' pode confundir as pessoas. Embora processe uma vasta quantidade de dados através de seus algoritmos, suas respostas são fundamentadas em probabilidades estatísticas. Isso significa que ela não possui consciência, intuição ou discernimento humano, mas apenas fornece respostas que parecem relevantes aos usuários. Ainda que as atividades para as quais a IA generativa for designada sejam bem definidas, é necessária uma estrutura robusta pautada na ética e extremamente personalizada para orientá-la, bem como uma revisão de qualquer conteúdo, antes de ser implementado. No Direito, sobretudo para decisões judiciais, a IA generativa, em primeira análise, deve ser alimentada com os princípios basilares do ordenamento, com constantes revisões a fim de identificar possíveis padronizações equivocadas, que levam à discriminação e injustiças. No entanto, ainda assim, não haveria a característica primordialmente necessária: ser, de fato, humana. Nesse diapasão, retornamos aos ensinamentos de Goffredo Teles quando diz que "a inteligência humana estará sempre condicionada por um fato inarredável: a inteligência é sempre inteligência do ser humano. Sendo do ser humano, a inteligência não poderá deixar de ser solidária com o todo de que é parte. Esta solidariedade é o que, de certa maneira, determina a inteligência. A inteligência é necessariamente determinada pelo que o ser humano realmente é.". Nos casos jurídicos, sempre há nuances as quais somente a sensibilidade humana é capaz de perceber. Apesar de sempre estarmos buscando nos reinventar, há uma característica única, imutável, esta que, nas palavras de Goffredo, se resume ao fato do ser humano sempre estar refletido no mundo em que habita, sendo este seu reflexo, isto é, "o ser para o qual as coisas de todo o seu mundo se projeta", característica esta que a inteligência artificial - pelo menos por enquanto - não detém, por mais que seja nutrida por bilhões de dados. Por esse motivo que a incorporação tecnológica no Direito deve ser orientada pelos princípios da ética, explicabilidade, segurança, transparência e responsabilidade, bem como aplicada de forma personalizada à realidade de cada caso concreto. A IA generativa enquanto ferramenta pode auxiliar na eficiência e produtividade, no entanto, deve se resguardar a prerrogativa de decidir exclusiva ao magistrado. Sobretudo, porque tais princípios primam, em última análise, pela valorização da dignidade da pessoa humana, que é, segundo as palavras do professor Ricardo H. Sayeg, a "expressão jurídica da essência do ser humano"8. Indo além, em um mundo tecnológico que, cada vez mais, nos propõe uma linguagem codificada, exigindo conhecimentos matemáticos e das ciências exatas para o aperfeiçoamento do próprio Direito, uma abordagem científica possível é a lógica expressa matematicamente nas situações de incertezas da Física Quântica, como aquela em que a trajetória do elétron não pode ser observada, somente calculada probabilisticamente. Quem relaciona muito bem essas áreas que, de longe, aparentam ser incomunicáveis, é o próprio professor Ricardo Sayeg, quando defende que o Direito terá aplicação mais densa através do Direito Quântico, ao propor uma singularidade jurídica integral, por força da consubstancialidade entre o positivismo, os direitos humanos e o direito realidade. A IA generativa ainda não está na grande maioria das legislações, pois é bastante recente. Ainda assim, qualquer legislação ou regulação a ser inventada também não podem impedir a inovação e o desenvolvimento científico. No entanto, urgente é a discussão aprofundada sobre a ética nessa nova tecnologia. Conclui-se que essa tecnologia no ato decisório, é relevantemente considerada enquanto ferramenta, destinada à eficiência e produtividade do magistrado, mas não substituta da inteligência humana no processo hermenêutico do magistrado, pois somente o olhar do julgador, que apreende a realidade que se impõe, permite encontrar resultados que não são verificáveis empiricamente como verdadeiros ou falsos, processo este baseado na racionalidade e expectativa probabilística dentro de determinado espaço jurídico de determinação. Referências bibliográficas CNN. Conar abre representação ética contra propaganda da Volkswagen com Elis Regina: ação foi motivada por queixas de consumidores; será analisado o fato da cantora ter sido "revivida" por ferramenta tecnológica e inteligência artificial, além da possível confusão que isso pode gerar. Ação foi motivada por queixas de consumidores; será analisado o fato da cantora ter sido "revivida" por ferramenta tecnológica e Inteligência Artificial, além da possível confusão que isso pode gerar. 2023. Disponível aqui. Acesso em: 07 ago. 2023. Introdução à Ciência do Direito. 29. ed. Rio de Janeiro : Freitas Bastos, 1989. p. 23. MCCULLOCH, W. & PITTS, W. (1943). A Logical Calculus of Ideas Immanent in Nervous Activity. Bulletin of Mathematical Biophysics, 5, 127--147. MELO, Jairo. Inteligência artificial: uma realidade no poder judiciário. uma realidade no Poder Judiciário. 2019. Disponível aqui. Acesso em: 08 ago. 2023. SAYEG, Ricardo Hasson. Fator CapH capitalismo humanista a dimensão econômica dos direitos humanos. Ricardo Sayeg e Wagner Balera - São Paulo: Max Limonad, 2019. TELLES, Goffredo da Silva. Direito Quântico: ensaio sobre o fundamento da ordem jurídica. 9ª Ed. São Paulo: Saraiva, 2014. __________ 1 Mcculloch, W. & Pitts, W. (1943). A Logical Calculus of Ideas Immanent in Nervous Activity. Bulletin of Mathematical Biophysics, 5, 127--147. 2 CNN. Conar abre representação ética contra propaganda da Volkswagen com Elis Regina: ação foi motivada por queixas de consumidores; será analisado o fato da cantora ter sido "revivida" por ferramenta tecnológica e inteligência artificial, além da possível confusão que isso pode gerar. Ação foi motivada por queixas de consumidores; será analisado o fato da cantora ter sido "revivida" por ferramenta tecnológica e Inteligência Artificial, além da possível confusão que isso pode gerar. 2023. Disponível aqui. Acesso em: 07 ago. 2023. 3 Afirmação do professor Hermes Lima, na obra Introdução à Ciência do Direito. 29. ed. Rio de Janeiro : Freitas Bastos, 1989. p. 23. 4 Notas retiradas das aulas ministradas pelo Prof. Dr. Ricardo Hasson Sayeg, na turma de Direito Quântico do Mestrado da PUC-SP. 5 O professor Goffredo Telles, em sua obra de Direito Quântico: ensaio sobre o fundamento da ordem jurídica, 9ª Ed., São Paulo, Saraiva, 2014, p. 330, traz que "A pessoa humana passa a ser a medida de todos os valores. Porque ela é que constitui o bem primordial e, nessa qualidade, a referência para a determinação dos valores dos outros bens.". 6 TELLES, Goffredo da Silva. Direito Quântico: ensaio sobre o fundamento da ordem jurídica. 9ª Ed. São Paulo: Saraiva, 2014, p. 329-330. 7 "A IA é uma realidade no Poder Judiciário (projetos no STF, TJPE, TST, TJRO e TJDFT) já estão trazendo benefícios. A maioria das iniciativas da Justiça está voltada para a classificação de modo supervisionado, isto é, existe a necessidade de que um especialista gerencie os atributos do processamento para garantir a efetividade do mesmo." MELO, Jairo. Inteligência artificial: uma realidade no poder judiciário. uma realidade no Poder Judiciário. 2019. Disponível aqui. Acesso em: 08 ago. 2023. 8 Notas retiradas das aulas ministradas pelo Prof. Dr. Ricardo Hasson Sayeg, na turma de Direito Quântico do Mestrado da PUC-SP.
Enquanto a regulamentação europeia sobre o ecossistema tecnológico influencia grande parte dos diplomas legais em todo o mundo, os regramentos da China não têm o mesmo impacto, o que pode ser um equívoco.  Não haveria nada que o Ocidente poderia incorporar das regras chinesas, principalmente na área tecnológica? Certamente, a resposta deve ser sim, porque o país tem um papel relevante, principalmente sobre a governança da IA generativa, ao desenvolver uma regulamentação pioneira, independente das limitações ideológicas. O esboço do regulamento para a IA Generativa1 foi publicado em abril de 2023, com a versão final sendo divulgada em julho do mesmo ano. Essas regras, mais flexíveis do que as propostas inicialmente, preveem, por exemplo, uma multa de 100 mil yuans (equivalentes a R$ 67 mil) para violações das diretrizes, sem a necessidade prévia de uma avaliação de segurança por parte da Comissão de Administração e Supervisão do Ciberespaço da China (CAC). Na versão final do regulamento, a supervisão será realizada por sete diferentes agências governamentais, com a CAC sendo a principal. Todas essas agências trabalham juntas para o desenvolvimento de padrões responsáveis e para a criação de mecanismos de detecção de uso mal-intencionado da IA Generativa.2 Segundo a Universidade de Stanford, a CAC não é uma agência reguladora qualquer, mas uma super agência, supraministerial e 'quase onipresente', sendo que sua origem está no Escritório Estadual de Informações da Internet. Além de gerenciar os conteúdos on-line da China, trata de políticas e regulamentações sobre segurança cibernética e de dados. É tida como uma instituição que integra o Comitê do Partido Comunista Chinês. "Embora esteja ganhando força o princípio geral de que as entidades partidárias-estatais fundidas devem ser tratadas como agências administrativas quando desempenham funções estatais em vez de partidárias, a linha entre essas duas funções nem sempre é clara. À luz da crescente influência do CAC, seu status de partido-estado duplo levanta questões sobre sua tomada de decisão, operações diárias e responsabilidade para com seu público regulamentado".3 Para os chineses, a IA generativa é definida como sendo "tecnologias que geram texto, imagem, áudio, vídeo, código e outros conteúdos semelhantes com base em algoritmos, modelos ou regras", mas não menciona que os conteúdos produzidos pela IA generativa são essencialmente novos, quando isso vem tendo efeito cada vez maior sobre o mercado de trabalho ao substituir grande parte da mão de obra humana. É o caso do DALL-E, que já vem sendo utilizado por grandes estúdios de animação para criar personagens e ambientes em tempo recorde, podendo imitar criadores e estilos. Também causou polêmica, o acordo firmado para o ChatGPT acessar o conteúdo de uma das maiores e antigas agências de notícia do mundo - a Associated Press, o que propicia um uso responsável do treinamento da máquina em serviços de notícias,especialmente, diante de 4 mil ações que já estão tramitando na Justiça norte-americana de escritores, que se sentiram plagiados pelos chatbots. Chama a atenção no regramento chinês, as medidas sobre os provedores de serviços de IA generativa que devem identificar o usuário de um conteúdo considerado ilegal e remover aquelas informações. Em seguida, deve relatar os problemas detectados às agências reguladoras. Há, portanto, uma preocupação com a governança ética da IA Generativa e ao mesmo tempo em fazer o controle do ecossistema de tecnologia do país. Na regulamentação chinesa, os direitos autorais dos titulares dos dados usados para o treinamento da IA são protegidos. É proibido que desenvolvedores e provedores utilizem dados de treinamento que infringem os direitos de propriedade intelectual de terceiros ou dados pessoais sem o devido consentimento - requisitos que ainda estão sendo discutidos no Ocidente, em meio a muita polêmica. Além disso, os desenvolvedores devem marcar os conteúdos gerados pelos serviços de IA Generativa. Existem artigos na nova regulamentação chinesa que garantem direitos aos titulares de dados similares aos da LGPD brasileira (Lei Geral de Proteção de Dados), ao coibir a coleta de informações pessoais desnecessárias e ao exigir que seja informado o registro de uso a terceiros. Assim como no Brasil, as reclamações dos usuários devem ser atendidas por canais de comunicação apropriados, proporcionando ao titular acesso à correção ou exclusão de dados, à cópia dos dados, entre outros direitos. Nos últimos anos, a China tem produzido várias regulamentações sobre tecnologias de Inteligência Artificial e se prepara para formular um Marco Regulatório de IA nos próximos anos. Com isso, a China se tornou um dos principais players de pesquisa em IA com um amplo arcabouço regulatório, que não pode ser simplesmente ignorado, independentemente da ideologia ou burocracia estatal chinesa. A legislação chinesa, que deve entrar em vigor no dia 15 de agosto, afirma que visa incentivar essa tecnologia com cooperação local e internacional. Vale lembrar que a China possui seus próprios players desenvolvendo esta tecnologia. A China é pioneira em várias leis na área de IA, como a Lei de Proteção de Informações Pessoais, a Lei de Segurança de Dados e as Disposições Administrativas sobre Algoritmos de Recomendação em Serviço de Informação Baseados na Internet, dentre outras. Com a ambição de se tornar líder global em IA até 2030, o país vem realizando esforços significativos para impulsionar esta tecnologia, contribuindo com 8,9% do investimento mundial, o que equivale a mais de US$ 26 bilhões. Apesar do controle do governo chinês sobre os sistemas de IA, o ecossistema regulatório do país proporciona uma nova perspectiva sobre a regulamentação da IA Generativa. Sem dúvida, isso terá impacto nas questões relacionadas à violação dos direitos fundamentais de imagem e privacidade dos usuários, bem como responsabilidades no âmbito tecnológico. Essas questões são de interesse direto para desenvolvedores, cientistas, governos e a sociedade do Ocidente.A nova regulamentação chinesa já contempla princípios éticos para os sistemas generativos de IA enfatizando preocupações com conteúdo discriminatórios e inverídicos - saídas indesejadas que também são destacadas na recente legislação da União Europeia, o IA Act. No universo tecnológico, a busca por uma regulamentação consensual tem potencial para superar restrições oriundas de políticas antagônicas e competições estratégicas, visando o benefício coletivo. Há quem advogue, inclusive, pela criação de uma agência reguladora global. É fundamental que o Ocidente mantenha uma visão aberta para considerar as leis e regulamentos chineses sobre IA generativa, uma abordagem que pode ser extremamente vantajosa para o aprendizado com base nas experiências deste país, desconsiderando-se  as diferenças políticas e legais. O cenário ideal envolve uma união que beneficie todos, promovendo o desenvolvimento conjunto de ferramentas para a mitigação de riscos em prol de toda a humanidade.Encorajamos uma visão que convide todos a reconsiderar as possíveis contribuições que a China pode oferecer à regulação global de tecnologia, mesmo diante das diferenças ideológicas e políticas existentes. Este é um tema complexo e multifacetado, que envolve a avaliação das práticas regulatórias chinesas e o contexto no qual estão inseridas. __________ 1 Disponível aqui. 2 Disponível aqui. 3 Disponível aqui.
O primeiro Marco Regulatório da Inteligência Artificial (IA)1 do mundo foi aprovado recentemente pelo Parlamento Europeu e deve entrar em vigor no próximo ano. O AI Act faz uma abordagem baseada em sistema de 4 riscos - inaceitável, alto risco, limitado e mínimo  - como previsto, mas realiza um aprofundamento das propostas iniciais. Um dos relatores da nova Lei, o italiano Brando Benifei afirmou que a legislação é histórica e que deve resistir ao tempo: "É crucial construir a confiança dos cidadãos no desenvolvimento da IA, definir o caminho europeu para lidar com as mudanças extraordinárias que já estão acontecendo, bem como orientar o debate político sobre IA em nível global". Os Estados Unidos divulgaram seu "Plano para uma Declaração de Direitos de IA" e a China um Projeto de regramento, mas nenhuma das duas potencias foi tão longe quanto a  União Europeia na definição de uma legislação sobre o sistema de IA e práticaa de privacidade. Em resumo, o novo Marco Legal estabelece maiores restrições aos sistemas de Inteligência Artificial, exigindo que essa tecnologia seja supervisionada por humanos, seja transparente, não discriminatória, sustentável e tecnicamente neutra. Esse último tópico já levanta a polêmica porque há quase um consenso que a tecnologia não pode ser neutra ou não neutra, apenas permite ao ser humano acesso a limites que antes não podia alcançar, alterando a qualidade de vida do ser humano em todos os setores. Os desenvolvedores de IA generativa vão ter de aderir a salvaguardas. Por exemplo, como o ChatGPT, Midjourney ou Bard, da IA generativa, estarão em conformidade com a nova Lei da UE?  São considerados de risco limitado e terão de incluir uma informação avisando que os conteúdos foram gerados por máquinas e que foram utilizados no treinamento um grande volume de dados, sem  violação de   direitos autorais. Os sistemas de IA ainda precisarão apresentar documentação técnica e identificar o fornecedor, sendo necessário estar em conformidade com outras normas aplicáveis a cada caso.  Na exposição de motivos, a nova lei estabelece um conceito para o sistema: "A  inteligência artificial (IA) é uma família de tecnologias em rápida evolução capaz de oferecer um vasto conjunto de benefícios económicos e sociais a todo o leque de indústrias e atividades sociais. Ao melhorar as previsões, otimizar as operações e a afetação de recursos e personalizar o fornecimento dos serviços, a utilização da inteligência artificial pode contribuir para resultados benéficos para a sociedade e o ambiente e conceder vantagens competitivas às empresas e à economia europeia. Essa ação torna-se especialmente necessária em setores de elevado impacto, incluindo os domínios das mudanças climáticas, do ambiente e da saúde, do setor público, das finanças, da mobilidade, de assuntos internos e da agricultura". O histórico do Marco Regulatório da IA tem início em 2020 com a publicação do "Livro Branco sobre IA", uma série de documentações, abertas à consulta pública das partes interessadas para o debate e visando atingir uma regulação mais consensual possível. A União Europeia sempre justificou sua preocupação com a regulamentação da tecnologia de IA atrelada aos direitos fundamentais dos seus cidadãos, proteção de dados pessoais, governança e segurança jurídica quando se fala em investimentos e inovação e desenvolvimento de um mercado único para aplicar à IA. O resultado da Lei, contudo, afeta uma série de tecnologias, que possuem ampla gama de usos em vários países, visando aplicar mais transparência e auditabilidade. A Lei da IA considera inaceitável o risco decorrente da identificação biométrica remota em tempo real em espaços públicos, com raras exceções, como para combater o terrorismo; técnicas subliminares para distorcer comportamento ou visando tratamento prejudicial contra pessoas e grupos.  Já na categorização de risco elevado está distribuída em muitos tópicos, como na gestão de redes de infraestrutura pública, como trânsito, abastecimento de água, luz, gás; uso para acesso a instituições de ensino e formação profissional, assim como para avaliar estudantes; no recrutamento ou seleção de pessoas para obtenção de vaga ou avaliação de candidatos; bem como para decidir sobre promoção ou cortes de mão de obra. Esse tópico ligado aos recursos humanos, certamente, será um dos mais conflituosos porque já vem sendo aplicado em larga escala por muitas empresas em diferentes países. Outros elementos considerados de risco elevado no uso de tecnologia de IA são as avaliações de candidatos para acesso ou perda de assistência a serviços públicos. Igualmente alto é considerado o risco  do uso da IA para avaliar o endividamento de pessoas e sua classificação de crédito ou estabelecer critérios de prioridades para envio de bombeiros, assistência médica e outros serviços de emergência. A segurança pública é um outro ponto sensível ligado aos sistemas de IA porque a  nova lei  restringe que o emprego da tecnologia pelas autoridades policiais para uso preditivo, que determine o risco de uma pessoa singular  com base em perfil, localização e comportamento criminoso pregresso;  para mensurar o estado emocional de uma pessoa, aplicado a polígrafos e outros instrumentos; determinar elementos de prova durante inquérito ou repressão penal; elaboração de perfis ou comportamento criminal de pessoas ou grupos, seja na detecção, investigação ou repressão a delitos penais e pesquisa de dados biométricos de mídia sociais ou  imagens CFTV para montar bancos de dados de reconhecimento facial. Igualmente complexa é a questão da migração e controle de fronteiras, sendo que a Lei da União Europeia reforça o risco elevado do uso de sistemas de IA para detectar estados emocionais de pessoa singular; para avaliar riscos de segurança, imigração irregular e de saúde de quem deseje ingressar em território de um Estado-membro ou faça análise de pedidos de asilo, visto, residência e queixas de imigrantes e refugiados. Sobre a Justiça, a nova regulamentação estabelece como sendo de risco elevado os "Sistemas de IA concebidos para auxiliar uma autoridade judiciária na investigação e na interpretação de factos e do direito e na aplicação da lei a um conjunto específico de fatos". A automação da justiça por sistema de IA já é uma realidade. A Estônia, por exemplo, vem usando sistemas de IA para julgamento de casos com valor inferior a 7 mil euros. Sempre criticada por ter o potencial para coibir a inovação dos sistemas de IA, o novo Marco Legal da União Europeia prevê isenções das regras legais para as atividades de pesquisa e IA sob licença de código aberto. Foram contemplados sandboxes regulatórios, em ambientes controlados para testar a tecnologia de IA antes de sua implantação, o que deve mitigar os possíveis riscos. Diante do futuro, o novo Marco Legal da IA da União Europeia ganha um peso significativo pela votação obtida: 488 votos favoráveis, 28 contra e 93 abstenções, podendo ter reflexos mundiais. O novo diploma jurídico da UE afeta prestadores de serviço, usuários, fornecedores, importadores, representantes,  distribuidores e fabricantes de produtos que envolvam  sistemas de IA na esfera da União Europeia e deve influenciar a regulamentação de inúmeros países, como aconteceu com a GDPR (Regulamento Geral sobre Proteção de Dados), que gerou a Lei Geral de Proteção de Dados no Brasil. É possível que a tendência mundial continue alinhada à regulamentação europeia sobre a IA e  observa-se o pioneirismo europeu e a adaptação de vários países em moldes semelhantes em suas legislações de IA à luz do Quadro Regulamentar Europeu, sendo considerada abrangente e equilibrada no que diz respeito à promoção da inovação tecnológica e proteção de dados. A União Europeia continua, portanto, como um líder global em estabelecer os padrões éticos e regulatórios para o desenvolvimento e uso da IA.É o chamado Efeito Bruxelas ou a capacidade regulatória da EU quanto a concretização de direitos além de suas fronteiras, influenciando outros mercados. __________ 1 Disponível aqui.  
As cobranças em torno de mais segurança e confiabilidade sobre as  tecnologias de Inteligência  Artificial estão vindo de todos os lados por ter ampla abrangência e atingir praticamente todos os setores, seja do G-7, que concentra as maiores economias do mundo; seja do Congresso brasileiro  que tem em tramitação o PL 2338/2023 ou da União Europeia, que possui o debate mais avançado sobre regulamentação da IA e que convocou, recentemente,  uma cúpula global para encontrar meios para refrear os sistemas avançados dessa tecnologia. Há quem compare a tecnologia de IA a um cavalo selvagem, que galopa velozmente, mas de forma desgovernada. Por isso, as rédeas e o adestramento são vistos como benéficos, ou seja, como forma de garantir direitos, não comprometer a inovação, mas responsabilizar os desenvolvedores, até porque o próprio Parlamento Europeu reconhece que a IA, embora vista como "ameaça imprevisível", pode ser uma ferramenta poderosa e fator de mudanças relevantes, oferecendo produtos e serviços inovadores, que trarão benefício à sociedade , especialmente nas áreas da saúde, sustentabilidade, segurança e competitividade. O Artificial Intelligence Index Report 2023, da Universidade de Stanford, registra que cresceram os casos legais envolvendo a tecnologia de IA em 2022, nos EUA.  Totalizam 23 ações na Califórnia, 17 em Illinois, 11 em Nova York e números menores  em outros Estados. O levantamento ressalta que já está em vigor uma série de regulamentos, como de Illinois (Biometric Information Privacy Act) sobre   a coleta e armazenamento de informações biométricas que precisam ser seguidos por todas as empresas que fazem negócios naquele estado norte-americano e acabam levando ao incremento do conflito e disputa legal.1 O projeto brasileiro sobre regulação da IA (PL 2338/2023) é de autoria do presidente do Senado Federal e Congresso Nacional, Rodrigo Pacheco. Segue, em boa parte, as linhas do projeto europeu. Visa a estabelecer o uso responsável dos sistemas de IA, centralizados na pessoa humana, respeito aos direitos humanos, valores democráticos, proteção ambiental, entre outros requisitos. O projeto de lei também traz uma categorização de riscos, sendo considerados excessivos aqueles que utilizam técnicas subliminares, exploram vulnerabilidade de grupos específicos de pessoas naturais ou leve o poder público a avaliar, classificar ou ranquear pessoas naturais. O texto trata também da identificação biométrica à distância em casos de persecução de crimes passíveis de reclusão acima de 2 anos, busca de vítimas de crimes ou pessoas desaparecidas ou crimes em flagrante.2 Independente do ritmo em que a regulação da IA caminha em todo o mundo, a tecnologia amplia sua tessitura no mundo dos negócios.  O conjunto de regramentos da UE (AI Act e AI Liability Directive) oferece um ponto inicial para entender como será o conjunto dessa legislação, que deve ter reflexos em outros países, assim como aconteceu com sua Lei de proteção de dados, a GDPR (Regulamento Geral de Proteção de Dados), que serviu de referência para leis similares em muitos países, inclusive no Brasil, com a Lei Geral de Proteção de Dados (LGPD). O grande passo da União Europeia, que entra neste ano na fase final de avaliação do conjunto de regramentos a ser aplicado às tecnologias de IA , é o entendimento do Parlamento Europeu na Resolução de 3 de maio deste ano, que afirma que a "classificação deve ser acompanhada de orientações e do fomento do intercâmbio de boas práticas em prol dos criadores de IA", assim como o  direito à privacidade  ser sempre respeitado, devendo os" criadores de IA devem garantir o pleno cumprimento das regras em matéria de proteção de dados".3 A proposta da UE de regular a IA começou  em abril de 2021 (AI Act) e possui uma estrutura regulatória que, de um lado, assegura seu desenvolvimento e, de outro, protege os direitos fundamentais dos europeus, tornando-se sistemas confiáveis. Essa estrutura de regulamentação tem uma categoria de riscos - sendo os sistêmicos aqueles que envolvem os direitos fundamentais - e uma forte estrutura de governança e segurança jurídica. Suas penalidades são onerosas, podendo chegar a 30 milhões de euros e, no caso de empresa, a 6% do seu volume mundial de negócios mundiais do ano relativo ao total do exercício anterior.4 Dentro da proposta de regulação europeia, os riscos são categorizados. São considerados  riscos inaceitáveis os sistemas subliminares, manipuladores ou exploratórios, que possam causar danos, caso de identificação biométrica remota em tempo real em espaços públicos. Recentemente, a Prefeitura de São Paulo suspendeu o pregão eletrônico para contratar sistema de câmeras de monitoramento e reconhecimento facial, visando políticas de segurança pública preventiva, sendo que inúmeras entidades de defesa do consumidor e da sociedade civil acionaram o Ministério Público do Estado contra o projeto, que foi cancelado pela Prefeitura. Na Europa, o uso de sistema de identificação biométrica remota em tempo real em espaços acessíveis ao público para fins de aplicação da lei somente é autorizado em algumas exceções. No caso do uso privado da biometria é apenas para  identificação biométrica retrospectiva. Também se discute na lei europeia o uso de tecnologias biométricas como expressão facial, sendo que não há ainda base científica sobre a aferição de estados emocionais e traços da personalidade mensurados pela biometria.  Para assegurar o futuro, a lei europeia prevê a necessidade de adotar um mecanismo para adicionar subcategorias às existentes à medida que novos usos da tecnologia são incorporados. A exemplo da GDPR, a regulamentação europeia da IA prevê que os implantadores (qualquer pessoa, grupo ou autoridade pública que implemente um sistema de IA) tenha acesso a canais que lhes permitam apresentar queixas, buscar uma ação coletiva, ter o direito à informação e uma agência de fiscalização com padrões e recursos suficientes para desempenhar suas responsabilidades previstas em Lei. No AI Act, a questão da finalidade, a exemplo da GDPR, é um ponto importante. Os fornecedores devem explicitar a finalidade pretendida da tecnologia criada para tornar mais transparente o uso potencial; assim como seus limites, deixando igualmente claras as suas responsabilidades. É o caso do uso da biometria remota em tempo real por parte de autoridades em uma manifestação com confrontos, por exemplo. Deve atender aos objetivos de uso e teste de proporcionalidade,para que não ameace o Estado de Direito. Em paralelo a Lei AI Act, a União Europeia criou no ano passado a AI Liability Directive, um regramento voltado à responsabilidade civil aplicável à tecnologia de inteligência artificial, uma vez que há superposição de responsabilidades no caso de gerar prejuízos, seja do fabricante, proprietário ou operador, assegurando o direito de reparação das vítimas. A própria Diretiva traz a justificativa de sua criação: "As condições para a implantação e desenvolvimento de tecnologias de IA no mercado interno pode ser significativamente melhorado por prevenir a fragmentação e aumentar a segurança jurídica através de medidas harmonizadas na UE, em comparação com possíveis adaptações de regras de responsabilidade em nível nacional".5  A Universidade de Stanford, que possui um observatório sobre regulação da IA, apontou no ano passado a aprovação de  37 projetos de lei para regular essa tecnologia. As abordagens são muito diferentes e incluem todo tipo de preocupação. Este ano, a  Cúpula de Crescimento do Fórum Econômico Mundial, que aconteceu em maio, colocou mais um elemento no debate: a IA levará a uma necessária requalificação da força de trabalho e dos sistemas educacionais. O Fórum estima que 1,1 bilhão de empregos serão transformados pela tecnologia, tornando necessário que os programas de aprendizado sejam atualizados neste sentido. A preocupação com os sistemas de IA não se restringem ao universo jurídico ou educacional, mas são tão abrangentes que o Fórum Econômico Mundial está reunindo as melhores cabeças da academia, da indústria e dos governos para refletir sobre a IA generativa, defendendo que todos os stakeholders (partes interessadas que podem impactar determinado negócio, sejam clientes, investidores, profissionais, agências reguladoras, comunidades, mídias etc.)  trabalhem juntos para mitigar as externalidades negativas, ou seja, os custos sociais e econômicos para sociedade das tecnologias de IA. Assim, talvez, surja a  resposta de como teremos uma IA  mais responsável. __________ 1 Disponível aqui. 2 Disponível aqui. 3 Disponível aqui. 4 Disponível aqui. 5 Disponível aqui.
Uma simples história em quadrinhos de ficção científica encabeça o debate sobre os direitos autorais da inteligência artificial, intitulada  "Zarya of the Dawn", de autoria da artista Kristina Kashtanova, que  utilizou recursos da IA Generativa para elaborar as imagens da obra. A história trata de uma personagem não binária (Zarya) que atravessa "diferentes mundos para reunir ferramentas de saúde mental para poder lidar com suas emoções e pensamentos e encontrar conexão com outras pessoas e criaturas."1 Nos Estados Unidos, o  Escritório de Direitos Autorais (US Copyright Office- USCO) , que "registra reivindicações de direitos autorais, informações sobre propriedade de direitos autorais, fornece informações ao público e auxilia o Congresso e outras partes do governo em uma ampla gama de questões de direitos autorais, simples e complexas"2 ganhou novas prerrogativas diante da dimensão que o direito autoral adquiriu no ambiente digital e divulgou novas diretrizes , determinando que as obras devem obrigatoriamente comunicar a inclusão de conteúdo gerado por IA para reivindicar direitos autorais. No caso de Kashtanova, o Escritório havia concedido inicialmente os direitos autorais que, em nova análise, revogou quando veio a público o uso de IA no processo de criação da imagens. Recentemente, o órgão, em nova  avaliação, reviu sua posição e concedeu o registro parcial , excluindo o trecho produzido pela IA. Portanto, o registro de direito autoral abrange somente a autoria original da autora, sendo que as imagens geradas pelo Midjouney (programa semelhante ao ChatGPT) não possuem direitos autorais protegidos. Nessa construção dos direitos autorais envolvendo  IA, o escritório americano não acatou a argumentação da autora de que utilizou Prompts de textos para gerar as imagens pela IA, uma vez que entende que  tecnologia não permite controle sobre essa criação, não sendo possível dizer que tem autoria humana. A IA emprega algoritmos de aprendizado para criar novos conteúdos, que podem ser considerados plágios de outros trabalhos, outras fontes, o que comprometeria o resultado "original" da obra gerada, impossibilitando que obtivesse proteção  quanto aos direitos autorais. Em sua decisão, o escritório utilizou como comparativo o trabalho de um fotógrafo, que tem controle sobre a fotografia final porque pode interferir na iluminação, enquadramento,  tema etc. O grande imbróglio de uma obra gerada pela tecnologia de IA é tentar decifrar qual o nível do envolvimento humano no processo de criação. Somente selecionar prompts não assegura ao autor o status de "autoria humana", segundo entendimento do escritório americano de direitos autorais. O que é um processo de criação? Essa pergunta comporta muitas respostas por envolver o fazer artístico: Pode ser inspiração divina? Um dom nato? O esforço que envolve um trabalho criativo? Enfim, o ato de criar ou a criatividade, poderia ser definida como sendo "a aptidão da inteligência que permite a reorganização dos dados, no intuito de associá-lo e combiná-lo para a solução de problemas. Esta atitude da inteligência estaria diretamente relacionada à faculdade de criar, de idealizar e de conceber, correspondendo, em sentido amplo, à causa formal aristotélica. Enfim, seria a faculdade de proporcionar soluções adequadas a novos problemas, E em um sentido estrito, a faculdade da produção criadora"3 (TAVARES, 2011). O USCO tem em suas manifestações buscado explicitar a participação do autor humano em conteúdo gerado por tecnologia e IA generativa e tem reconhecido que dependendo do nível dessa contribuição, uma obra pode ser considerada de autoria  humana e de proteção autoral. O reconhecimento da história de Kristina Kashtanova é um fato inédito e pode se tornar um leading case. Há muitos casos no mercado que estão chegando para desafiar os tribunais no sentido de que um trabalho foi produzido com base no estilo de determinado artista, sem o seu consentimento. Ainda há muita insegurança no cenário jurídico em relação a obras geradas por IA, e outros países podem ter entendimentos diferentes sobre a proteção legal dessas obras, como é o caso do Reino Unido, que tem trabalhado para atualizar suas leis de direitos autorais para incluir obras geradas por IA, com parte de um esforço mais amplo para modernizar a legislação de direitos autorais. Atualmente, temos exemplos de criadores que afirmaram ter aprimorado os prompts e intervindo manualmente no produto final geral pela IA generativa para ter seu direito autoral reconhecido pelo Departamento norte-americano de direitos  autorais. A grande dívida, porém, reside em uma etapa anterior: é possível treinar um modelo de IA de domínios protegidos por direitos autorais? O volume de dados, sejam textos, imagens ou códigos, é de tal magnitude  que mesmo uma pesquisa para determinar se tal dado é protegido pode falhar, o que consiste em um risco a ser levado em conta. Nos Estados |unidos, há a doutrina do "uso justo" para emprego não comercial  e educacional, caso de pesquisas acadêmicas e de organizações sem fins lucrativos. Contudo, é possível treinar a IA generativa com base em todos os livros do escritor Thiago Nigro, o autor brasileiro que vendeu mais livros em 2021, e produzir uma nova obra com objetivos comerciais? Talvez, mas a nova obra poderia parar nas barras de um tribunal por envolver questões legais de direitos autorais ou compensações para a parte que teve seu direito violado. Segundo analistas do universo jurídico, o número desse tipo de  ações  ainda não ganhou grandes dimensões porque os artistas não possuem recursos para bancar esse tipo de litígio, extremamente custoso e  longo. Considerando a interpretação e aplicação das leis de direitos autorais em cada país, as audiências agendadas pelo Escritório de Direitos Autorais americano para discutir a criatividade da inteligência artificial generativa e os direitos autorais nos EUA podem ter um forte impacto no Brasil e no mundo. Essa discussão pode ser complexa, assim como ocorreu na época da primeira codificação internacional dos direitos autorais, em 1886, quando havia muitas variáveis e naquela época houve algumas controvérsias em relação a alguns aspectos da convenção, por exemplo, alguns países argumentavam que a convenção favorecia, principalmente, os países mais desenvolvidos, que tinham um maior número de obras protegidas pelos direitos autorais. Além disso, havia preocupações sobre como a convenção afetaria as indústrias culturais em países que não tinham tradição em proteção aos direitos autorais.4 Assim, a discussão atual sobre os direitos autorais na era da IA generativa pode ser muito significativa e complexa, envolvendo diversos atores e com potencial impacto em nível global. O processo criativo pode ser influenciado por referências artísticas ou acadêmicas e a IA generativa pode ser uma ferramenta valiosa para pesquisas, desde que o usuário possua o conhecimento técnico necessário. Em relação ao caso de Zarya, é possível que sua criadora tenha utilizado somente seus próprios inputs, sem se basear em referências artísticas de outros criadores, o que pode ser questionável do ponto de vista artístico. Essa discussão destaca o papel da tecnologia na criação artística e reforça a importância do conhecimento técnico e das referências no processo criativo. __________ 1 Disponível aqui. 2 Disponível aqui. 3 TAVARES, Monica. Processo de Criação na Arte. Disponível aqui. 4 Disponível aqui.  
Na fase inicial da aplicação da tecnologia ao Direito, em 2015, surgiu o DoNotPay, considerado o primeiro "robô advogado" do mundo. Na verdade, consiste em um aplicativo de serviços jurídicos criado por um cientista da computação, Joshua Browder, que utiliza tecnologia de Inteligência Artificial  (IA) para prestar determinados serviços jurídicos por assinatura anual de baixo custo. A invenção teve como "cobaia" o próprio criador, que queria se livrar de multas continuadas de estacionamento durante a faculdade. Assim, havia no design da criação do DoNotPay um idealismo de seu criador: ajudar o cidadão comum a enfrentar a burocracia do Estado, caso de multas de trânsito excessivas, ou conflitos consumeristas de pequena monta com empresas privadas, como cancelamento de assinaturas, taxa ilegal, spam etc., que ocupam tempo demais e não compensam o custo da contratação de um advogado por parte do cidadão comum. A partir do momento que o usuário inseri no aplicativo do DoNotPay o que deseja contestar, a IA gera uma inicial e todos os demais recursos que venham a contestar a demanda em sua tramitação. Ao longo dos anos, a IA ajudou a sofisticar a argumentação legal utilizada, aumentando o sucesso do aplicativo e funcionalidades, tanto que este ano  ensaiou representar presencialmente um cliente no tribunal , fornecendo instruções através de fones de ouvido, mas recebeu objeções de várias entidades representativas de advogados e de promotores, que consideraram a prática ilegal. O DoNotPay não cobra taxa de desempenho ou participação nos benefícios que por ventura o cidadão venha a obter por decisão judicial. Esse não é o caso de sites e aplicativos que invadiram o mercado brasileiro, instigando os consumidores a ingressar com processos judiciais para qualquer tipo de conflito consumerista. Há uma linha tênue que divide a iniciativa dessas ferramentas tecnológicas sob o aspecto da desjudicialização e a facilidade de acesso à justiça, em contraposição à preocupação de que tais aconselhamentos e iniciativas possam ter. Certamente, não reúnem a qualidade necessária de informações legais, podendo causar problemas adicionais aos consumidores desinformados e sem a orientação de um advogado  "humano". Outro ponto preocupante é a regulamentação e adequação das leis aos aconselhamentos baseados em algoritmos e estatísticas. No Brasil, existem plataformas que atuam de forma nociva nas relações de consumo. Disfarçadas de civic techs (empresas de tecnologia que buscam o engajamento do cidadão), acabaram por receber a alcunha de "aplicativos abutres". Essas plataformas promovem a judicialização predatória contra diferentes fornecedores em casos que poderiam ser facilmente resolvidos por mediação ou conciliação.  No entanto, esses conflitos localizados acabam se arrastando pelos tribunais, prejudicando parte do jurisdicionado que efetivamente necessita de uma solução mais célere  da Justiça para questões graves e urgentes. Pouca gente sabe, mas alguns aplicativos abutres pertencem a fundos de investimento que atuam no exterior e visam tão somente o lucro decorrente da judicialização. Eles se afastam do propósito de uma verdadeira civic tech, que deveria auxiliar no monitoramento de denúncias, melhoria dos serviços públicos e na busca de fomentar a participação do cidadão em consultas públicas e outras iniciativas de engajamento social. Em vez disso, se aproveitam de uma espécie de "comoditie legal" lucrativa, obtida pelo resultado esperado de determinadas ações contra empresas de alguns segmentos, como aviação e varejo. O aumento da litigiosidade no Brasil é um fenômeno que compromete o exercício pleno da cidadania porque limita o acesso à Justiça   e vem sendo minorado com a adoção de métodos consensuais de resolução de conflitos, nos quais as partes são incentivadas a encontrar uma solução, mais rápida e barata, para todos os envolvidos. O Judiciário implantou a Política Judiciária Nacional de Tratamento adequado dos conflitos de interesse no âmbito do Judiciário (resolução CNJ n. 125/2010) e vem ampliando o número de  soluções de litígios por autocomposição.  Vale ressaltar que esses "abutre techs" não estão interessados em defender os direitos dos consumidores, mas a lucrar com eles, oferecendo até a possibilidade de adquirir o futuro direito de crédito . De acordo com dados da série histórica do Conselho Nacional de Justiça, a despeito das medias mitigadoras, vem crescendo o número de novos processos que ingressam no Judiciário brasileiro: Em 1990, ingressaram 3,6 milhões de novos processos; em 2002, totalizaram 9,7 milhões; em 2010, 17,7 milhões (1º grau) 3,3 milhões (grau de recurso). Em 2021, já atingimos 26,9 milhões, embora tenha havido anos de estabilidade no período, casos dos anos de 2015 e 2016.1 A alta taxa de litígios do país vem sendo alvo de um efetivo esforço do CNJ voltado a educar e estimular os consumidores a optar pela conciliação e promover uma mudança na cultura de fornecedores e consumidores de que os direitos das partes somente são garantidos nas barras dos tribunais. Em sentido oposto, esses sites e chatbots, instigam pelas redes sociais o consumidor  através de um marketing agressivo a buscar a litigiosidade para resolver qualquer tipo de reclamação, por mais banal que seja, ignorando os canais de atendimento extrajudiciais e mesmo plataformas digitais, como a Consumidor.Gov, com alta taxa de resolução, de forma rápida e gratuita. De forma concomitante, para coibir esse tipo de abuso dos aplicativos abutres, a Ordem dos Advogados do Brasil tem atuado fortemente contra esses predadores tecnológicos. O Conselho Federal da OAB criou um grupo de trabalho que irá discutir esse tipo de litigância predatória e propor ações de enfrentamento, com a criação de mecanismos que possibilitem identificar esses aplicativos, propiciando a resposta adequada. Para o conselheiro e coordenador do grupo junto ao Conselho Nacional de Justiça, "o problema tem começo, meio e fim. O Judiciário está na sua fase intermediária. Não é a decisão de mérito em ação coletiva que o cria. A raiz do problema da litigância predatória se encontra em decisões equivocadas no momento da definição de políticas públicas ou nas estratégias empresariais, estas sim predatórias, e não no consumidor lesado que procura a Justiça através do seu advogado. Se existe a lesão, o processo judicial, individual ou coletivo, tem de levar a sua reparação."2 A linha de atuação de OAB está centrada no exercício irregular da atividade da advocacia e captação ilegal da clientela promovida pelos sites e aplicativos abutres e têm sido vitoriosa nas ações impetradas na Justiça contra esses chatbots por exercerem ilegalmente a advocacia, uma vez que não possuem inscrição nos quadros da Ordem, como estabelece a Lei 8.906/1994 e o Código de Ética e Disciplina da OAB, podendo gerar uma série de danos ao direito dos consumidores. A tecnologia de IA pode ser empregada para servir o consumidor que se sinta lesado ou para dar lucro a terceiros que expoliam esses consumidores, fomentando a litigiosidade dentro do sistema judicial. A conduta das partes, portanto, é fundamental para saber sopesar como deve encaminhar os seus potenciais conflitos, levando em conta os fatores que asseguram seus interesses e relevando uma solução oportunista e insegura, que resulta na massificação das demandas, prejudicando a cidadania e comprometendo a eficiência da Justiça. __________ 1 Disponível aqui. Acesso em 15 mar 2023.   2 Disponível aqui. Acesso em 15 mar 2023.
terça-feira, 7 de março de 2023

As máquinas podem amar?

Não existe norma específica para lidar com este fenômeno chamado ChatGPT, por isso neste momento o Direito não tem condições plenas de focar apenas na norma como objeto de estudo. É preciso entender o fenômeno, para então normalizá-lo e, somente depois, tratar exclusivamente da norma que regula o fenômeno. A ideia é que as Ciências Jurídicas, terão de se dispor a um movimento próprio das Ciências Humanas antes que possa seguir para o seu objeto de estudo. O ChatGPT gerou um frenesi. O que essa ferramenta de linguagem natural poderia responder? Mais surpreendente do que uma pequena criança que aprende as primeiras palavras, o sistema mostrou-se bastante satisfatório na criação de poemas, textos curtos e longos, além de resenhas de filmes, como o clássico Casablanca. No primeiro momento houve surpresa, no segundo medo e agora uma lenta e bem construída descrença de que a ferramenta possa de fato ter expressões mais humanas que venham a prejudicar nossa capacidade de julgamento sobre as suas respostas. Uma ferramenta que recebe nossas mensagens e as reprocessa não é uma novidade. Em 2 de abril de 2014 a Microsoft testou a Cortana dentro do Twitter. Longe de qualquer demérito, ambas as companhias foram o laboratório social de um experimento curioso. Durante 24 horas a IA Cortana recebeu os tweets de centenas de pessoas. Cientes de que o sistema utilizava aprendizado de máquina, os usuários criaram situações eticamente limítrofes para a IA, que se tornou racista, xenófoba e antissemita. Não houve dúvidas quanto ao fato de que ela nasceu pura e a sociedade a corrompeu. Todavia, não tendo consciência, sequer noção de sua existência, Cortana se tornou mais corruptora do que corrompida. Aqui reside a principal reverberação de uma IA, porque, independentemente de uma senciência, o espelho que uma IA com linguagem natural cria é capaz de revelar nossas falhas ou, no pior dos casos, reforçá-las. Em 1950, Alan Turing escreveu sobre a possibilidade de que uma máquina digital poderia mimetizar outras máquinas, fossem digitais ou humanas. Durante o raciocínio, um dos seus questionamentos versou sobre as chances de que uma máquina pudesse pensar. Para esta possibilidade o matemático apresentou várias objeções de ordem teleológica-espiritualista, de que pensar seria dom divino concedido ao ser humano; de que seria temerário, e até indesejado, imaginar um ser artificial pensante; e que seria impossível provar os erros de um sistema cujas premissas seriam condicionais e, portanto, herméticas. Umas das objeções que se destaca é a de que uma máquina digital, ainda que soubesse poetizar, não teria ciência do que está fazendo. O ato de sentir seria apenas humano, todavia o matemático apresenta o argumento de Ada Lovelace de que máquinas poderiam até pensar por si só, sem que, no entanto, pudessem criar algo novo. Turing acaba sendo pragmático e, no seu Jogo da Imitação, arremata a questão ao afirmar que seria indiferente superar as objeções que apresentou porque a máquina digital teria sucesso se, após 5 minutos de diálogo, fosse impossível saber se a conversa era desenvolvida com um homem, uma mulher ou uma máquina. Se o conteúdo trazido e o tempo de resposta fossem factíveis, então o convencimento seria certo. O ChatGPT, ao menos por enquanto, mostrou-se capaz de compilar dezenas de páginas de forma satisfatória. Ele tem natureza enciclopédica. É criativo na combinação de textos à disposição na internet, mas não nas ideias. Talvez o próximo Pulitzer ou o próximo Nobel de Literatura sejam vencidos por um humano que usou parcialmente uma ferramenta de Linguagem Natural. Enciclopédias também erram, seja por viés histórico, seja por inacurácia técnica. O dicionário da Academia Real Espanhola definiu, por longo tempo, que os povos andinos eram selvagens. A Enciclopédia da Folha de São Paulo, de 1996, está desatualizada. Foi-se o seu tempo. A Wikipédia corre o mesmo risco todos os dias. Entretanto, estas acertaram os fatos que narraram em seu tempo. O ChatGPT falha ao unir a tentativa de criatividade com o seu caráter enciclopédico. Isso resulta em afirmações que doem ao brasileiro. Ayrton Senna não morreu em Interlagos após bater em Nakajima.1 E o 1º de maio de 1994 ninguém esquece, ninguém interpreta e ninguém relativiza. Senna se foi em Ímola, na Itália. Seja numa conversa de 5 minutos, seja num verbete de enciclopédia ou na retomada de um evento histórico é o convencimento humano, é a interpretação humana que prevalece. O que importa é o efeito que a máquina tem sobre os humanos mais do que sobre si mesma. Senão vejamos, as crianças no início dos anos 2000 sofreram várias vezes quando seus Tamagotchi  morreram, especialmente quando seus animais virtuais, entregues para os amigos, morriam de fome ou por superalimentação. O Tamagotchi não era uma IA, mas uma pequena máquina digital com efeitos psicológicos e comportamentais sobre os seus usuários. Novamente, o que importa é o efeito que a máquina tem sobre os humanos mais do que sobre si mesma. Isaac Asimov, em 1941, antes do artigo de Turing, publicou o conto O Mentiroso. A antecipação do enredo está no título e, naturalmente, em algum momento o robô que Asimov apresenta mente dentro da história. A mentira, entretanto, passa pelo equilibrado silêncio, por pensamentos criados na mente dos ouvintes, pelos desejos que eles possuem no íntimo, pela falta de comunicação de uns com os outros e, acima de tudo, pela Lei a que o robô está sujeito: Primeira Lei - Um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum mal. Para o robô, mentir é proteger. Perceber as vontades do ouvinte e preenchê-las é fazer-lhe o bem. Contar a alguém que o sujeito desejado a ama é evitar o mal da tristeza. Aqui reside o perigo, quando uma ferramenta, dotada de cookies, dados e uma enciclopédia do comportamento humano puder entregar a realidade desejada através de palavras. Ao final da história, a cientista Susan Calvin, uma das personagens principais, apesar do coração partido, consegue criar um grave erro de sistema (Blue Screen) que acaba com o robô. Diante de vários ouvintes o robô foi incapaz de criar uma mentira factível para todos. Por isso, antes que se possa pensar na consciência de uma IA, na sua inspiração poética, ou se esta é apenas matemática ou uma linguista por natureza, as questões devem versar sobre os efeitos individuais e a escala que essas interações intimistas podem ter numa sociedade que busca incessantemente ser compreendida, nos seus erros e acertos. Aqui lanço o desafio, quem seria o autor do poema, a IA ou o autor que vos fala? Amar é confundir a vida com a eternidadeÉ fazer do momento, infinitoDo carinho para uma, a dádiva para a multidãoÉ nascer árvore, da sementeSer inteiro com outra, mesmo sendo doisÉ chorar no porto, depois de presentear com a velaConfiando ao outro a curva do retornoÉ abrir o abraço e esperarOu correr atrás do momento terno __________ 1 UOL. Senna morreu em Interlagos depois de bater em Nakajima. Disponível aqui. Acesso em: 05 de março de 2023.
Só se fala do ChatGPT1. A inteligência artificial criada nos Estados Unidos, mas que também funciona em português, parece ser capaz de responder a perguntas, bem como fazer contas, dar conselhos, simular diálogos, criar poemas, imagens, códigos fonte, músicas etc. A partir de padrões e dados fornecidos pelo próprio usuário, a tecnologia de modelo linguístico, além de se aprimorar sozinha, traz novas conclusões originais baseadas em pesquisa de fontes variadas. Assim como toda boa novidade acessível ao público, o robô do momento tem provocado diversos questionamentos em nichos específicos e no mero dia a dia da sociedade. As preocupações giram basicamente em torno de: "o ChatGPT será inimigo do raciocínio e da criatividade?", "mensagens ou declarações serão sempre elaboradas por um robô?", "a inteligência artificial vai favorecer plágios e violar direitos?", "as pessoas ficarão preguiçosas ou serão substituídas por máquinas?".  No universo da programação, por exemplo, podem surgir novos crimes virtuais. No mercado de trabalho, fluxos e atividades laborais podem ser otimizadas. Na vida escolar e acadêmica, existem riscos de cópias ou elaboração de tarefas sem qualquer raciocínio. Na saúde, possíveis diagnósticos podem ser fornecidos a partir da apresentação de sintomas pelo paciente ou agendamentos prioritários podem ser realizados. No âmbito jurídico - além da inteligência artificial poder ser benéfica para a elaboração de documentos como contratos, pareceres ou peças judiciais -, há polêmicas mais relevantes sobre o tema. Antes de tudo, é preciso entender que os retornos do ChatGPT a pedidos, sugestões ou dúvidas podem ser razoáveis e aparentemente compreensíveis, porém nunca perfeitos ou totalmente confiáveis. Isto é, a inteligência artificial conta com ótimas soluções, mas também limitações. O ChatGPT, apesar de apresentado como disruptivo, se baseia apenas em dados inseridos na rede somente até 2021 e não revela a fonte das informações - tais como provedores de pesquisa conhecidos na Internet que rastreiam, indexam, catalogam e organizam páginas publicamente disponíveis na rede, a partir de critérios de busca. A ausência de qualquer referência na produção do material por meio do ChatGPT, portanto, acaba não viabilizando a apresentação de uma bibliografia segura. Embora seja treinado para tentar consertar erros, retificar premissas incorretas e rejeitar pedidos inapropriados, as chances de sucesso são baixas nesse sentido. Nesta perspectiva, relembra-se que, por vezes, nem mesmo grandes veículos de comunicação ou o Poder Judiciário são capazes de atestar a veracidade de determinados conteúdos publicados na rede, tamanha a subjetividade que os envolve. Ainda, o ChatGPT não consegue responder a perguntas muito complexas e nem reagir a "piadas" ou "tirinhas inteligentes", dada a ausência de malícia da ferramenta que, naturalmente, é inerente ao ser humano. Por outro lado, a imprecisão de respostas estimula o estudo, a investigação da veracidade do conteúdo produzido e o debate para fins de correções manuais e resultados mais assertivos. Ou seja, a ferramenta se mostra útil para suporte, otimização do tempo ou eventual produção de ideias iniciais, mas para que seja criado um material inédito com informações precisas, ainda se faz necessária a participação humana. O material gerado pela nova inteligência artificial, por não contar com qualquer rastro de origem - já que produzido por algoritmos, a partir de informações públicas existentes na Internet, sejam elas provenientes de canais oficiais ou meras postagens aleatórias inseridas em redes sociais por qualquer usuário -, provoca discussões quanto à autoria do conteúdo, especialmente para fins responsabilização ou reivindicação de direitos autorais. Na hipótese de um usuário 1) questionar ao ChatGPT sobre a vacinação contra o Covid-19, 2) obter respostas contrárias às orientações médicas e 3) viralizar a informação equivocada em suas redes sociais ou outros meios de comunicação, ele poderá ser responsabilizado nos âmbitos cível e/ou criminal pela disseminação de desinformação ou notícias falsas, por exemplo. A propósito, a viralização de conteúdos ilícitos é um risco potencial ao negócio, se a ferramenta não for utilizada com senso crítico. Nessa linha, inclusive, foi criada uma Política de Compartilhamento e Publicação2 pela desenvolvedora da inteligência artificial, com expressa orientação de que o usuário assume a autoria das respostas quando publicadas em outro local. Além de outras recomendações também previstas nos Termos de Serviço3, Políticas de Uso4 e Políticas de Privacidade5, chama atenção a linguagem pronta que é fornecida ao usuário que desejar descrever o processo criativo quando necessário: "O autor gerou este texto em parte com o GPT-3, o modelo de geração de linguagem em larga escala da OpenAI. Ao gerar o rascunho, o autor revisou, editou e revisou o idioma de acordo com sua preferência e assume a responsabilidade final pelo conteúdo desta publicação." Sob outra ótica, também merece ser observado os direitos autorais de materiais já existentes na Internet. Nem toda obra publicamente disponível pode ser usufruída sem devida licença, créditos ou outros requisitos legais. Por isso, com relação à utilização de conteúdos como base para a produção de determinado material pelo ChatGPT, pode-se avaliar a possibilidade de o titular do direito requerer a criação de filtros de bloqueio aptos a impedir a utilização do conteúdo como um dado de treinamento da inteligência artificial. Em analogia ao que já acontece em algumas plataformas digitais, detentores de direitos autorais (em parceria com a empresa responsável pela plataforma) podem utilizar um sistema de identificação de conteúdo automatizado para detectar e gerenciar um conteúdo protegido. Assim, quando o código criado para identificar o conteúdo protegido por direitos autorais localizar uma correspondência, por exemplo, este não será veiculado ou empregado como fonte na elaboração do material produzido pela inteligência artificial. Outro ponto, por fim, que merece certa ponderação, diz respeito ao modelo globalizado da inteligência artificial. Isso porque, atualmente, ferramentas de pesquisa contam com critérios de geolocalização quando do retorno de resultados de buscas. O ChatGPT, criado por companhia norte americana e com fatores transacionais não especificados, pode fazer com que não sejam considerados aspectos culturais e legais de cada região, oferecendo assim aos usuários uma suposta "verdade universal". As situações boas ou ruins relacionadas ao ChatGPT são infinitas mas, para todas as áreas, corrobora a imprescindibilidade do ser humano. O aparente segredo desta inteligência artificial - e de outras já disponíveis ou que ainda vão surgir - está na elaboração das perguntas "corretas" quando da utilização e no senso crítico das pessoas para avaliar e revisar os materiais produzidos pelos robôs. Ao invés de reagir negativamente às tendências e evoluções, cabe ao ser humano e à sua capacidade de adaptação se reinventar jogando junto com a tecnologia. As pessoas devem ter em mente que ferramentas como o ChatGPT possibilitam a terceirização de atividades monótonas para dar lugar à criação de novos produtos e serviços. A qualidade do resultado proveniente do ChatGPT (e outras ferramentas deste tipo) ainda é discutível, mas mesmo que não fosse, o ser humano continuaria essencial para aprimorar a tecnologia e para analisar as referências obtidas. Inteligências artificiais podem ser direcionadas para automatizar tarefas repetitivas ou processos, analisar grandes bases de dados, fornecer serviços de atendimento mais personalizados ou prever tendências. Contudo, o conceito de machine learning deve ser agregado às habilidades individuais de cada indivíduo - que continuará exercendo atividades importantes e tomando decisões -, pois é o que irá gerar mais valor e fazer diferença para o cotidiano de outras pessoas e empresas. __________ 1 "Chat Generative Pre-Trained Transformer" ou, em tradução livre: "transformador pré-treinado generativo de bate-papo". 2 Disponível aqui. 3 Disponível aqui. 4 Disponível aqui.   5 Disponível aqui.
Especialistas consideram que neste ano a Inteligência Artificial (IA)  tende a continuar crescendo em ritmo exponencial, e estará ainda mais presente na vida das pessoas em uma completa conexão, sendo que é um mercado em evolução  e está  longe de atingir todo o seu potencial  em todos os setores e envolvendo quase todos os tipos de produtos e negócios, dos transporte a alimentos, na economia, política e defesa. Ou seja, a IA deve inovar quase tudo que conhecemos e demandamos. Poderá permitir que pessoas que não são programadoras, por exemplo, criem aplicativos, sem entrar nas questões éticas e o desenvolvimento do ser humano, Darwin que não nos ouça, os aplicativos vão sugerir a solução dos problemas e desenvolver aplicações de acordo com a necessidade do usuário. A questão aqui é em relação à produção artística, todo esse potencial gerou  a primeira  ação judicial coletiva de artistas visuais nos Estados Unidos contra empresas de tecnologia de IA pelo uso indevido de um conjunto de bilhões de dados utilizados no treinamento do algoritmo, sem autorização, violando a lei de direitos autorais norte-americana e licenças de código aberto. Esse processo é  aquele que todos sabem que viria, mais cedo ou mais tarde. Os artistas alegam que captadas essas imagens promoveriam uma espécie de colagem moderna de suas obras,  fato que as empresas de tecnologia refutam alegando que a  IA regenerativa cria clusters de representação dos dados de treinamento, ou seja, é uma técnica de machine learning, que agrupa dados em conjuntos distintos e avalia os coletados para encontrar padrões  e deles extraírem insights.  As ferramentas de IA são alimentadas, treinadas por dados, em repositórios públicos de códigos extraídos da internet, sem atribuir crédito a seus criadores. A parte contrária alega que esses "criadores de IA" podem até escrever um código que seja cópia do código-fonte aberto em que foi treinado. Os artistas, que são parte da ação, querem que empresas de tecnologia de IA fiquem proibidas pela Justiça de utilizarem trabalhos artísticos sem permissão dos autores para produzir novos conteúdos. O cerne da discussão é que a nova ferramenta de IA usa código-fonte aberto para treinamento, com base na Lei americana de uso justo de direitos autorais . As nuances da defesa e acusação são amplas, porque até o estilo do autor entra na discussão, porque a nova criação pode recriar um determinado estilo e deve abrir "a porta dos tribunais" para outros litígios de direitos autorais sobre tecnologia de IA. Com relação ao estilo do autor abrimos aspas para outro debate, o ser humano também no decorrer do seu desenvolvimento de aptidões artísticas muitas vezes pode buscar a mesma técnica e nuances do seu mestre até que desenvolva seu estilo próprio. O que não se cogita obviamente é a cópia da obra. A discussão nos tribunais trata da Inteligência Artificial Generativa ou IA generativa, uma das mais inovadoras, que pode criar textos, seja  para marketing, negócios  ou para um artigo acadêmico, desenhos, imagens, e artes realistas, com base no emprego de machine learning. Os artistas não gostam do tratamento das empresas que atuam com a IA generativa e os advogados acreditam que as alegações de que a arte gerada pela IA é próxima ao original não será fácil de comprovar no tribunal. Como comprovar que uma imagem  derivada de bilhões de dados  resultou na imagem "x". Não sabemos que sinalização as corte darão, se haverá um mais proteção ou  mais amplitude aos direitos autorais no caso da IA generativa. Mas, temos como baliza o caso de um aplicativo que usou algoritmos de reconhecimento fácil na startup que desenvolveu e a Justiça deixou claro que os dados dos usuário não poderiam ser usados para esse fim, sem anuência dos envolvidos, e a startup fechou. O processo da IA regenerativa está nas etapas iniciais, mas ninguém duvida que terá grande impacto no desenvolvimento da tecnologia de IA como é desenvolvida hoje. Mas afinal o que é um código aberto? Nada mais é que um software cujo código está disponível para download por qualquer pessoa, permitindo que possa fazer alterações  no desenvolvimento do código. O debate  está colocado e deve suscitar muita polêmica em diversos aspectos, aqui estamos falando de apenas um deles: todo algoritmo pode ser treinado com qualquer dado encontrado na internet, sem consentimento dos autores? Por este motivo essa ação poderia ser considerada emblemática para decidir o futuro da IA, nem tanto. Porque há um universo imenso de interessados: empresas de tecnologia, programadores, artistas, autores etc. Vale lembrar o caso do Napster, que foi um caso de disputa entre inovações tecnológicas e propriedade intelectual. A empresa  travou uma batalha judicial com as gravadoras por violar direito autoral de músicas, que perdeu, mas chegou a bater o recorde de 14 mil músicas baixadas por minuto na época. Há outro processo em andamento  nos EUA sobre IA generativa , voltado a debater a questão dos temas, estilos e outros elementos de artistas para formar uma nova arte. A ferramenta teria sido treinada com imagens e legendas da internet, sem que houvesse compensação ou consentimento dos artistas envolvidos. Uma das autoras da ação, Sarah Andersen disse ao New York Times que "Os humanos não podem deixar de trazer sua própria humanidade para a arte. A arte é profundamente pessoal, e a IA acabou de apagar a humanidade dela ao reduzir o trabalho da minha vida a um algoritmo". A discussão judicial nos Estados Unidos, certamente, terá impactos no mundo inteiro, por isso ela ganha tanta importância. O cerne do debate está na medida em que os desenvolvedores de IA regenerativa podem usar dados que estão na web e em que medida os autores devem receber direitos autorais por isso. Essa discussão deve iniciar uma reflexão em vários campos para se chegar à mitigação dos riscos, principalmente para as empresas de tecnologia, no sentido que não impeçam a evolução da IA regenerativa, que promete fazer uma revolução. O que está por trás disso tudo saberemos em um futuro próximo.
Este será um ano especial para as empresas de tecnologia de IA e os usuários quando o Senado Federal colocar em pauta o Marco Legal da Inteligência Artificial brasileiro, trazendo novos dispositivos de regulação. A minuta do anteprojeto  de lei, elaborada por uma comissão de juristas, já foi entregue ao presidente do Senado em dezembro do ano passado, depois de oito meses de trabalho, período no qual coletou informações a partir de painéis, seminário internacional e do substitutivo aos projetos em tramitação(PL 5.051/2019, que propõe princípios para uso da inteligência artificial no Brasil; PL 872/2021, que disciplina uso no país e o PL 21/2020, que estabelece fundamentos, princípios e diretrizes para o desenvolvimento e a aplicação da inteligência artificial no Brasil) Para uma tecnologia que já vem sendo aplicada em uso intensivo em diferentes segmentos no Brasil e no mundo, o anteprojeto brasileiro do Marco Legal da IA guarda similaridade a projetos em outros países, inclusive das propostas da União Europeia, ao abordar a garantia de direitos fundamentais, gradação de riscos e responsabilização pelo uso da tecnologia de IA e seus impactos para a sociedade. Como expressa, o professor Fernando Filgueira, doutor pelo Instituto Universitário de Pesquisas do Rio de Janeiro, que tem analisado estratégias de diferentes países frente à regulação da IA "regular a IA não é igual regular uma coisa, [.] em que o Estado pode estabelecer determinados parâmetros de segurança ou aquilo que ele quer regular, passar isso para a indústria e de alguma forma criar uma relação de comando e controle [.]. Nós estamos falando de uma tecnologia de propósito geral que tem diversas aplicações, as mais variadas [.]. [.] regular a IA não é propriamente regular a tecnologia em si [.]. O que nós estamos regulando são modelos de negócios que usam essas tecnologias."). A exemplo da Lei Geral de Proteção de Dados (LGPD), a comissão de juristas  propôs a criação de uma autoridade reguladora para IA, destacando as dificuldades que essa nova agência deve gerar, ao deter  um perfil administrativo e fiscalizatório. Outro dado importante seria a possibilidade de adoção de  uma regulação setorial para evitar conflitos e superposições.  Nesse sentido, seria formado um comitê multissetorial, envolvendo diferentes atores públicos e privados. Dessa forma, o Estado não teria o controle total, nem as empresas teriam a autonomia absoluta, seria uma busca pelo equilíbrio. Em suma, as questões regulatórias deveriam envolver governança de dados, transparência, ética e accountability algorítmica, dentre outros pontos. A agência reguladora para a IA, pelo anteprojeto apresentado deve ser independente, sendo que foi proposta uma corregulamentação entre o governo, setor privado, academia  e sociedade civil. A autorregulação seria aceitável em alguns casos, embora o debate sobre o impacto da tecnologia na garantia dos direitos  cidadãos fosse visto como ponto fundamental que deve figurar no Marco Legal, mas de forma que as regras não inibam o desenvolvimento.  A exemplo da Comissão Europeia, que  apresentou em 2021 sua proposta inicial para regular a Inteligência Artificial, o anteprojeto brasileiro aponta a necessidade de promover uma regulação baseada em risco, inclusive, apontando alguns usos considerados inaceitáveis. Mas também a comissão aventou a possibilidade de uma regulação baseada em direitos ou na combinação dos dois modelos (direitos e riscos); acrescentando a necessidade de uma avaliação antes de a tecnologia entrar no mercado. Outro ponto importante do anteprojeto está ligado à pesquisa e inovação para que o Marco Legal não inviabilize o  desenvolvimento tecnológico. Para Crisleine Yamaji, da Febraban e professora do Ibmec, integrante da comissão, "é um desafio muito grande para a Comissão pensar um pouco nesse arranjo institucional de fiscalização que efetivamente não imponha um ônus demasiado ao desenvolvimento econômico e tecnológico no País" (...) "o desenvolvimento da IA e da inovação no País não depende só de cooperações e parcerias, mas também de uma legislação e de uma regulamentação que deem espaço para esse aprendizado".  Para a questão da defesa de direitos fundamentais a comissão de juristas ouviu vários atores da sociedade civil, entre as muitas propostas apresentadas, estava a identificação de tecnologias de IA de alto risco, utilizando critérios bem definidos. Foram consideradas como inaceitáveis por diferentes autores: "reconhecimento facial em espaços públicos, policiamento preditivo, armas autônomas, reconhecimento de emoções e crédito social (social scoring) (...)vedação do emprego de IA que envolve graves riscos" (...) "sistemas artificiais que se fazem passar por seres humanos para fins de coerção ou manipulação, serem humanos; tecnologias que possam vir a interferir no processo democrático; sistemas que promovam deliberadamente qualquer tipo de dano físico, psíquico, emocional ou social a indivíduos; (.) armas autônomas (.); sistemas para fins de monitoramento de indivíduos, monitoramento Coordenação de Comissões Especiais, Temporárias e Parlamentares de Inquérito 220 em massa, criação de escores sociais, e profiling de indivíduos, mesmo que para fins de segurança pública, persecução penal ou inteligência nacional; sistemas que violem direitos humanos (Declaração Universal dos Direitos Humanos das Nações Unidas); sistemas que violem os Princípios e Direitos Fundamentais no Trabalho da OIT (Organização Internacional do Trabalho); sistemas que promovam obstáculos à implementação dos Objetivos de Desenvolvimento Sustentável estabelecidos pelas Nações Unidas"; suas decisões, ações e ordens dadas"; Rankeamento ou pontuação social pelo poder público ou por entes privados, (.); o uso do reconhecimento biométrico facial, ou de outra natureza, em tempo real ou não em censos étnico-raciais (.); vigilância de massa; manipulação de comportamentos ou condutas humanas; uso de inteligência artificial em armas letais e não letais".  O anteprojeto faz uma ressalva importante que mesmo nos casos de alto risco, é fundamental que o Marco regulatório as IA não impeça o uso da tecnologia, mas estabeleça medidas de mitigação de risco. Houve apoio para a distribuição da responsabilidade nos casos de risco de uso de tecnologia de IA. Haveria responsabilidade objetiva para os operadores de sistemas de IA de alto risco e de responsabilidade subjetiva nos casos de sistemas de outras categorias. Outros conceitos ligados à tecnologia de IA também foram inclusos, como transparência e explicabilidade, destacando a importância de preservar os interesses  das empresas quanto aos seus segredos comerciais.  Também não ficaram fora do debate os mecanismos de supervisão e revisão humana do sistema de IA.  O relatório ainda cita regulamentações de vários países , com destaque para a Alemanha pelo volume de iniciativas de regulação, que conta com a criação de um organismo central para certificação de sistemas de IA, Comissão de Ética sobre Direção Automatizada e Conectada, e a Áustria, que conta com um Conselho de Robótica e Inteligência Artificial, formado por especialista na área de pesquisa, ensino e indústria , que debatem oportunidades e riscos da tecnologia de IA. O relatório é muito objetivo ao estabelecer uma perspectiva realista no futuro imediato: "Na perspectiva de equilibrar o respeito aos princípios da IA e a promoção da inovação, pelo menos neste momento, salvo em algumas áreas específicas, a governança da IA deve ser desenhada principalmente com leis brandas (soft laws), o que é favorável às empresas que respeitam os princípios da IA. No entanto, é necessário continuar discutindo a governança de e essas discussões provavelmente se tornarão mais ativas no futuro".
terça-feira, 3 de janeiro de 2023

Mitos da Justiça Preditiva

Neste artigo, utilizamos o termo mito, não no sentido grego de ser uma narrativa que explica a origem de tempos primordiais e de grande significado, mas como uma história "profana, falsa", e nem por isso deixamos de nos debruçar na busca da verdade, fundamental quando tratamos de Inteligência Artificial (IA) aplicada à análise preditiva na prestação jurisdicional. Quando se fala de uso de tecnologias de IA no Judiciário, países como o Brasil são sempre lembrados  por  nossa cultura de litigância, que gera mais de 60 milhões de processos em tramitação no judiciário, sendo que a IA pode criar uma justiça mais célere e menos custosa para o país,  embora ainda não saibamos o real impacto que terá no futuro imediato junto aos  tribunais e na vida das pessoas. O próprio Conselho Nacional de Justiça publicou a  Resolução nº 332/2020, voltada ao  " uso de sistemas de IA para apoiar decisões judiciais ", sem esquecer de ressaltar os " critérios éticos (igualdade, não discriminação, pluralidade, solidariedade, julgamento justo) no preâmbulo e no caput do artigo 7º que devem orientar os sistemas de IA que importem em soluções nessas áreas".¹ Um dos grandes mitos que  envolvem o uso das tecnologia de  IA na Justiça é o alcance da justiça preditiva. Na ficção, a ligação entre IA e justiça surge no filme de Spielberg, " Minority Report", no qual o uso de uma tecnologia preditiva  com interface entre humanos chamados pré-cogs e computadores ajuda a evitar crimes antes  que aconteçam, o que ajudou a derrubar o número de assassinatos a zero. O sistema, contudo, gera dúvida sobre sua assertividade, registrada em um " minority report", que tinha os dados destruídos, mas ficava na mente do pré-cóg. Nesse cenário, um agente  e "chefe de pré-crime" acaba vendo ele próprio praticando um crime. Na verdade, as pessoas são acusadas com base em algoritmos nem sempre infalíveis. Diante dessa descoberta, ele passa a ser  perseguido pelo sistema para evitar denunciar a falha que detectou. É o que até hoje preocupa o avanço da IA no Judiciário: se sua aplicação na esfera judicial tem um  custo para os direitos à privacidade e liberdade dos cidadãos. Atualmente, o uso da IA no Judiciário tem o peso de ser uma ferramenta de prevenção e previsão para solucionar delitos dentro de um mundo ultraconectado tecnologicamente. O uso vem se expandindo nos laboratórios forenses e testes de DNA, entre outros, trazendo importantes evidências para solução de muitos crimes, até de forma antecipada.    De acordo com o jurista francês  Antoine Garapon, " A justiça preditiva é também uma atividade econômica, representando uma esperança ou mesmo um sonho, porque as transformações em curso são de uma profundidade insuspeita  ", sendo que há quem garanta que a análise preditiva poderá trazer, entre outras vantagens,  maior segurança jurídica, que cria um ambiente de negócios e cidadania muito mais estável, emprestando mais transparência às normas e diplomas legais do país, assim como a interpretação das leis não reservarão surpresas para as partes. O temor está em que possa gerar externalidades negativas, ou seja, quando seu uso impõe um custo a terceiros, uma vez que a IA é programada por humanos e isso pode resultar em erros,  até porque muitos bancos de dados utilizados são do setor privado e isso pode levar a  comprometer direitos fundamentais nos julgamentos. Um dos lastros mais eficientes que temos é a Lei de Inteligência Artificial da Comissão Europeia, do ano passado, que determina o respeito do uso da tecnologia artificial, como base em preceitos éticos, democráticos , ligados aos direitos humanos. O sistema de decisão algorítmica para a Justiça terá de passar pelo crivo dos Legislativos, o que já vem ocorrendo principalmente da União da Europa, que tem enfatizado salvaguardas para uso da IA quando aplicadas ao judiciário, defendendo a supervisão humana como fundamental para prevenir a discriminação. A Europa defende que as tecnologias de IA sejam rastreáveis e transparentes e até devam usar código aberto, sempre que possível. Ainda estamos vivendo os mitos da IA forte, que pode tudo, mas apenas na ficção científica, quando na verdade vivemos as IA fracas ou moderadas que,  a partir de dados, promovem a contínua aprendizagem automática  da máquina e atingem um resultado esperado em diferentes atividades humanas, incluindo o Judiciário. O campo do Direito se transformou em um alvo prioritário para as experiências da tecnologia de IA por alguns motivos, como o resultado esperado ser as probabilidades envolvendo o  julgamento individualizado dos juizados com base em leis, jurisprudência e doutrina, utilizando as decisões já proferidas. O aprendizado da máquina (machine learning) tem se mostrado eficaz no trabalho de interpretar os elementos de um processo judicial. Esse diagnóstico foi feito pela University College of London, que categorizou 79% das decisões da Corte Europeia de Direitos Humanos. ² É importante observar que  o sentido da lei extrapola os dados estatísticos, embora muitas tecnológicas afirmam ser   capazes de identificarem vieses no julgamento de terminados juízes ou de um colegiado de um tribunal, porque muitos outros fenômenos complexos envolvendo questões socioeconômicos e culturais se somam a cada decisão, que interfere no resultado probabilístico. A tecnologia de IA tem um rigor científico que se distancia do significado do Direito, dos valores e interesses sociais que podem ou não criar um novo eixo, que tem o peso de ser mais rico ou mais pobre na construção da paz social. Portanto, constitui uma revolução que ainda está em processo e, no momento, pode auxiliar na tomada de decisão judicial, cabendo ao juiz decidir o que quer utilizar dos dados extraídos pelos computadores. Os sistemas de IA ainda se concentram na pesquisa legal, análise de dados e justiça preditiva. A tentativa de previsão nas atividades humanas e do Direito é tão antiga quanto a humanidade e sempre ajudaram  as partes a consolidarem argumentos mais robustos, possibilitando que aquele que tem o papel de julgar  tenha melhores elementos. A análise preditiva não interfere nas decisões judiciais , apenas utiliza as sentenças como matéria-prima  para prospectar e lançar uma probabilidade de sucesso de determinada ação, sem interferir na garantia do julgamento justo. Sua interferência nas decisões judiciais, portanto, constituem um mito que vem sendo derrubado. ________ 1 Disponível aqui. 2 Disponível aqui. 
O uso da tecnologia de Inteligência Artificial (IA) na Justiça em todo o mundo tem gerado diferentes gradações de soluções. A mais integral vem da China, onde há 4 mil tribunais, 46 mil juízes e 110 mil advogados para atender uma população de 1,4 bilhão de pessoas, com o incremento da litigiosidade ano a ano. Desde 2016, o país vem desenvolvendo um conceito de "Tribunal Inteligente"¹. De acordo com a Suprema Corte de Pequim, em decisão deste ano, os magistrados devem consultar a Inteligência Artificial em todos os casos e, quando forem contra a recomendação da tecnologia, devem apresentar justificativa por escrito. O país entende que a IA está melhorando o sistema judicial ao alertar para "erros humanos" em decisões. A tecnologia de IA na China pode quase tudo, até alterar veredictos que podem "ser contaminados por erro humano". A incorporação da IA ao Judiciário foi acelerada pela pandemia da Covid-19 e a necessidade de digitalização, mas teve sua diretriz definida no Plano Quinzenal do Congresso Nacional Popular do ano passado, que definiu que a reforma judicial seria aprofundada pela tecnologia e o presidente do Supremo Tribunal Popular chinês, Zhou Qiang tem nos tribunais inteligentes uma de suas prioridades. O sistema do "Tribunal Inteligente" instalou plataforma on-line para o público em massa para agilizar a tramitação e incluir dados para agilizar o sistema de machine learning, propiciando relatórios estatísticos e preditivos. Segundo a China, o sistema reduziu em um terço as horas de trabalho dos magistrados, o tempo do processo é em média de 40 dias e economizou US$ 45 bilhões, no período de 2019 a 2021. É uma visão bem diferenciada da maioria dos países ocidentais, que fazem restrições ao viés algorítmico, temendo que gerem distorções, caso da Comissão Europeia, que em 2021 regulamentou o uso da IA com base em direitos fundamentais. Uma das inovações veio com a criação  Comissão Europeia para Eficiência da Justiça (CEPEJ)1, que  definiu como plano de ação de  2022  a 2025, " acompanhar os Estados e os tribunais numa transição bem-sucedida para a digitalização da justiça de acordo com as normas europeias e em particular com o artigo 6º da Convenção Europeia dos Direitos do Homem", dispositivo que assegura que toda  " pessoa tem direito a que a sua causa seja examinada de uma forma justa e equitativa, num prazo razoável, por um tribunal independente e imparcial. Qualquer pessoa acusada presume-se inocente até prova em contrário. Deve ser informada o mais rápido possível da acusação contra ela e poder preparar a sua defesa. Tem direito a ser representada por um advogado pago pelo Estado se não tiver meios para pagar um". A CEPEJ reconhece que a passagem dos arquivos judiciais em papel para o digital é fundamental. No Brasil, nas últimas décadas nos tribunais têm buscado realizar essa mudança do físico para o digitalizado. É o caso do Tribunal de Justiça de São Paulo (TJ-SP) , que iniciou em 2006  a implantação do processo eletrônico e desde 2015 não recebe mais ação em papel.2 A Comissão Europeia, que une Justiça e avanços tecnológicos, sugere seis pontos principais que devem ser observados, entre elas que as tecnologias escolhidas pelos Estados e Judiciários sejam mais eficientes, acessíveis e imparciais. Sugere, ainda, que os tribunais tenham um  pipeline para monitorar e gerenciar o fluxo das ações e  evitar a morosidade na  tramitação processual, podendo acompanhar o volume e produtividade dos feitos. Os europeus defendem uma justiça colaborativa, na qual as ferramentas tecnológicas devem interconectar todos os atores judiciais-magistrados, promotores, advogados e jurisdicionados. Para tanto, é necessário que a ferramenta seja de fácil uso e eficiente. Enfatizam também que haja uma adequação do papel dos juízes e promotores ao ambiente digital, sem que isso represente a substituição do juiz, como sugere o modelo chinês. Para a União Europeia, é importante também uma justiça centrada nas pessoas e que essas possam fazer uso pleno das tecnologias disponíveis, como condição de acesso ampliado da justiça, recebendo todo apoio no ambiente digital. Por último, o CEPEJ recomenda aumentar a visibilidade e compreensão dos resultados no âmbito judicial e garantir a transparência das ferramentas tecnológicas. Para os dois lados, sejam chineses ou europeus, fica a pergunta se a IA está criando uma nova forma de fazer Justiça ou se constitui um desafio para que os designs e os algoritmos correspondam à expectativa de uma IA legal com efetivo potencial para atender às demandas dos operadores do direito, do jurisdicionado e dos Estados. O Brasil segue o caminho do meio, introduzindo novas tecnologias em sua Justiça, seja de IA, big data, blockchain, etc.,sem que se perca a perspectiva e a relevância dos direitos fundamentais, que possam ser comprometidos com julgamentos automatizados, sem salvaguardas. __________ 1 Disponível aqui. 2 Disponível aqui.
terça-feira, 6 de dezembro de 2022

Alcance da IA e seus impactos no sistema judicial

A atual Capital Mundial do Futebol, o Catar, participou em julho último de um treinamento de capacitação sobre Inteligência Artificial, Justiça Criminal e Direitos Humanos, promovido pela UNESCO e Siracusa International Institute . Os magistrados do Supremo Conselho Judicial do Catar receberam treinamento sobre o uso de ferramentas de IA e suas aplicações práticas na administração da Justiça e como isso faz a interface com os direitos humanos discriminação e privacidade do jurisdicionado. O curso promovido pela UNESCO, que envolve também riscos de segurança cibernética envolvendo inteligência artificial,   já treinou mais de 20 mil operadores do Direito, visando cooperação Norte- Sul e Sul-Sul . Além da versão presencial, neste ano foram criados os  treinamentos on-line de capacitação "IA e o Estado de Direito", organizado em seis módulos para explorar potencialidades, riscos e responsabilidade na tomada de decisões judiciais por sistemas automatizados  por IA, deixando evidente as implicações dessa tecnologia com o devido processo legal e  o Estado de Direito, que deve atingir atores do sistema judicial de mais de  100 países, e a importância de conhecer melhor essa tecnologia para se alinhar às boas práticas tecnológicas e se posicionar sobre implicações legais.1 Um dos textos de referência utilizados no treinamento a distância da UNESCO é do juiz federal brasileiro, Fausto Martin De Sanctis, "Artificial Intelligence and Innovation in Brazilian Justice", demonstrando o reconhecimento internacional da iniciativa pioneira do Brasil na área. Victor é  um programa de IA do Supremo Tribunal Federal, em parceria com a Universidade de Brasília (UnB), chamado Victor,  implantado em 2018  com o objetivo de agilizar a  tramitação processual  do chamado Recurso Extraordinário na alta Corte brasileira, conceituado como sendo um "instrumento processual-constitucional destinado a assegurar a verificação de eventual afronta à Constituição em decorrência de decisão judicial proferida em última ou única instância", de acordo com apontamento do Ministro do STF, Gilmar Mendes. Victor pode identificar a implementação da admissibilidade de recursos repetitivos, criado pela Reforma do Judiciário (EC 45/2004) , levando em conta  sua relevância em um país como o Brasil, onde a litigiosidade é uma das maiores do mundo. Victor consegue reduzir o tempo de análise dos processos (RE), uma vez que grande parte do tempo gasto era referente à admissibilidade do recurso. Para  De Sanctis, é "importante criar um ambiente adequado para o uso de IA com as precauções necessárias. O otimização do tempo, reduzindo o número de servidores necessários para tarefas básicas, e deslocá-los para os mais relevantes, são vantagens já sentidas", diz De Santis em seu estudo.2  O segundo estudo apresentado no treinamento on-line da UNESCO é de Cingapura, que tem atraído grande controvérsia quanto ao uso de ferramentas de IA em sentenças, principalmente,  na Justiça criminal. Na Ásia, temos como referência a Malásia, com um programa piloto para crimes de porte de drogas e estupros, sendo que os juízes têm seguido a sugestão da IA em 1/3 dos casos. Cingapura criou um conselho de sentença para que o emprego da tecnologia tenha mais consistência e transparência. O texto afirma que "À medida que o público ganha maior consciência dos vários caminhos para buscar recursos para perseguir seus direitos legais, eles também podem estar mais preparados para serem auto-representados em nossos tribunais. Mais usuários do tribunal já estão interagindo diretamente com a justiça". O que causa maior impacto nas tecnologias de Inteligência Artificial (IA) atualmente são que elas vêm - além de  ajudar a automatizar tarefas mentais, transformando profissões como a dos operadores do direito - já conseguem fazer análises preditivas e redigir peças processuais e contratos. A capacidade humana de julgar e tomar decisões também vem sendo operacionalizadas, cada vez mais, pelas tecnologias de  IA em muitos tribunais de inúmeros países. Um  outro exemplo consistente vem da Europa. No final de novembro deste ano, a Câmara dos Lordes (Parlamento do Reino Unido) analisou o relatório do Comitê de Justiça e Assuntos internos avaliando as novas tecnologias no sistema de justiça britânico e apontou suas conclusões. Centrou sua análise no uso dos algoritmos e tecnologia de machine learn frente à  aplicação da Justiça na Inglaterra e País de Gales, incluindo policiamento preditivo, algoritmos para triagem de visto e  ferramentas de reconhecimento facial. Para o comitê, o impacto do uso da inteligência artificial no sistema judicial foi positivo, mas fez uma série de recomendações. A primeira tratou da possível manipulação de algoritmos que podem trazer riscos a um julgamento justo aos acusados, recomendando que  o governo adotasse boas prática de governança para uso de novas tecnologia, além de criar um órgão nacional independente para essa missão, uma legislação específica, orientação para uso de IA no policiamento e no sistema de justiça criminal. Os ingleses também demonstraram  a importância da transparência no uso das tecnologias de IA  para garantir a atuação da imprensa, da academia e do Parlamento.Quanto aos algoritmos, o comitê sugeriu uma série de recomendações, como realizar pesquisas para determinar como o uso de algoritmos preditivos afetou a tomada de decisões, promover treinamentos de funcionários públicos, e buscar junto aos produtos de tecnologia a  "explicabilidade" das ferramentas. O presidente honorário de uma das maiores empresas de tecnologia do mundo e professor em inúmeras instituições de ensino em todo o mundo, Giancarlo Elia Valori4 considera  fundamental lastrear o desenvolvimento da IA a padrões éticos e morais diante de seu potencial e possíveis riscos : "É, portanto, nosso dever preocuparmo-nos eticamente com as questões decorrentes da Inteligência Artificial: é o medo justificado de sermos subjugados por aqueles que agora pensamos que controlamos", diz.  Ele trouxe à toma o debate de forma mais consistente sobre a jurisprudência emergente e uso de sistema de IA na Justiça criminal e suas interfaces com os direitos humanos, ética, discriminação algorítmicas, violação de privacidade. __________ 1 Disponível aqui. 2 Disponível aqui. 3 Disponível aqui. 4 Disponível aqui.
É um fato que há tantas definições de Inteligência Artificial (IA) quanto o número de comunidades científicas e o consenso ainda vem sendo construído, embora alguns conceitos tenham mais aceitação. É o caso do conceito criado por François Chollet, engenheiro de software e pesquisador. Para ele, IA é um sistema computacional capaz de generalizar  conhecimento e aplicá-lo em ambientes desconhecidos. Igualmente polêmico vem sendo o debate sobre a regulamentação das tecnologias de IA. A discussão passa pela necessidade de estabelecer regras para o desenvolvimento ético, principalmente quanto às técnicas de machine learning e deep learning, ou seja, do aprendizado das máquinas sem programação, com capacidade autônoma de aprendizado e melhoramento contínuo. A aplicação da IA vem se expandido em todo o mundo, muito além dos carros autônomos e diagnósticos médicos precisos, impactando a vida das pessoas, empresas e governos, com adoção ampliado de sistemas inteligentes, principalmente para entender e classificar a grande quantidade de dados gerados diariamente. Contudo, em todo o mundo, a regulamentação da IA está em diferentes estágios de evolução. A regulamentação deve assegurar a evolução para as corporações, mas reduzir os possíveis riscos aos cidadãos. Um marco é o relatório da OCDE - Organização para a Cooperação Econômica para o Desenvolvimento que, em 2016, já tinha externado suas preocupações em torno de regras de governança ligadas à IA, uma vez que poderia gerar incremento do desemprego em decorrência da automação, crescimento da distorção na distribuição de renda e resultados comprometidos por falta de supervisão humana. Quatro anos depois, a mesma OCDE trouxe à público a Al Policy Observatory para contribuir com o uso responsável da tecnologia da IA,demonstrando uma contínua preocupação. Sendo sempre um referencial regulatório, a União Europeia também apresentou em 2019 m Guia de Ética Confiável para a IA, destacando pontos que deveriam ser observados no uso da IA, como privacidade e proteção de dados, centrar a tecnologia no ser humano, garantir  segurança técnica, transparência e um lastro nos Direitos Humanos para  evitar qualquer tipo de discriminação. No ano passado, a UE realizou consulta pública sobre o tema para consolidar o debate encaminhado pela Comissão Especial AIDA ( Artificial Intelligence in a Digital Age), visando regular a matéria no Parlamento Europeu.  Outro avanço foi registrado pela Unesco (Agência educacional, científica e cultural das Nações Unidas) que, no ano passado, conseguiu construir um acordo sobre ética no uso da IA, com adesão de 193 países. Um dos pontos fundamentais foi a recomendação de proteção e transparência, permitindo que os cidadãos possam acessar, alterar ou excluir dados pessoais dos registros. Uma forte restrição é quanto ao uso de sistemas de IA para promover classificação social e vigilância em massa.  O mundo tem registrado, por exemplo, o uso de ferramentas de IA em redes sociais para espalhar conteúdos extremistas, compartilhados como rastilho de pólvora, popularizando mensagens de ódio. Os Estados Unidos também se unem aos países que buscam propor diretrizes para a IA com  a publicação recente de uma declaração, a "  AI Bill of Rights"¹, pelo Escritório de Política Científica e Tecnológica da Casa Branca, que tem a função de uma carta de intenções para orientar  sobre a tecnologia de IA. De acordo com o governo americano, os cinco dispositivos de proteção aos seus cidadãos devem ser aplicados a todos os sistemas automatizados do país. Pela diretiva, o público tem o direito de ser protegido de sistemas inseguros, não ser discriminado por algoritmos ou de práticas abusivas de dados, ter o direito de saber que o sistema é automatizado  e como afeta as pessoas e  optar por não participar.    Além das regulações nacionais, áreas específicas também buscam normatizar a IA .Uma delas é a Saúde,  que mais vem incorporando - e de forma acelerada -- as tecnologias de IA,  devendo alterar a forma da prática clínica  e gestão da saúde como conhecemos hoje. No Brasil, para tentar responder com presteza a uma tecnologia disruptiva, órgãos governamentais e entidades de classe estão criando uma regramentos com base em diretrizes profissionais e código de conduta. Uma referência vem sendo a Organização Mundial da Saúde (OMS)², que tem orientado o emprego da IA na saúde, tendo publicado primeiro relatório, intitulado "Ética e governança da inteligência artificial para a saúde", no ano passado. Para a OMS, a IA tem auxiliado a agilizar e dar maior precisão a diagnósticos e triagem de doenças, além de fortalecer a pesquisa e desenvolvimento de remédios e deve estar centrada em seis principais: proteção da autonomia humana, promoção do bem-estar e segurança humana e interesse público, garantir transparência, explicabilidade e inteligibilidade, promoção da responsabilidade e prestação de contas, garantia da inclusão e equidade, promoção da IA de forma responsiva e sustentável. Um dos pontos principais da normatização do uso da IA na saúde repousa na transparência algorítmica, uma demanda da comunidade médica que deseja saber como os algoritmos são desenvolvidos e empregados, buscando contornar a chamada "opacidade" algorítmica, pelo qual não se sabe como o processo de machine learn chegou a determinado diagnóstico, podendo levar o médico a se tornar um refém das previsões das novas tecnologias. Nesse ponto, torna-se crucial que os médicos incorporem cada vez mais o conhecimento sobre a IA, para que tenham uma visão de como o sistema opera para terem mais elementos e decidirem se aceitam ou rejeitam determinado diagnóstico ou o tratamento sugerido pela máquina e as responsabilidades que isso implica.    Se o mundo está construindo seus sistemas jurídicos para lidar com a IA, o Brasil não foge à regra. Uma Comissão  de juristas vem trabalhando  em um texto substitutivo  para estabelecer os princípios para regular a IA no país, com base no PL 5.051/19 ( que disciplina o uso da  Inteligência Artificial no Brasil); o PL 5691/19 ( que institui a Política Nacional de Inteligência Artificial, com o objetivo de estimular a formação de um ambiente favorável ao desenvolvimento de tecnologias em Inteligência Artificial) e em audiências públicas  que foram realizadas este ano e  debateram eixos temáticos, como direitos e deveres,  impactos, governança e fiscalização da IA .A espinha dorsal da proposta de regulação da IA no Brasil, certamente, está na  Lei Geral de Proteção de Dados (LGPD - Lei 13.709/18).
terça-feira, 1 de novembro de 2022

O projeto "AI for Humanity" a estratégia francesa

Um dos maiores cientistas do século, Stephen Hawking1, pouco antes de falecer em maio de 2018 impressionou com sua aparição durante o evento de tecnologia "Web Summit"2 ocorrido em 2017, naquela rica oportunidade ele comentou sobre os riscos que a humanidade poderá enfrentar diante dos avanços da Inteligência Artificial (IA). Ele propôs, na ocasião, uma reflexão para que os cientistas e governos deem uma breve pausa nos avanços da automação e estabeleçam o realinhamento para focar mais nos benefícios sociais que a tecnologia pode oferecer à humanidade. Os riscos alertados por ele naquela oportunidade envolvem rupturas econômicas; a possível perda de milhares de empregos; a utilização das armas de destruição autônomas; novos meios de opressão política; podendo, assim, ser "a melhor ou a pior coisa que a humanidade já criou" em sua história. O cientista inglês não está sozinho em seus alertas e preocupações, o velho continente vêm buscando a regulação da automação - englobando todos os mecanismos tecnológicos - e o debate para a criação de mecanismos éticos e de segurança para evitar que o futuro da humanidade fique à mercê da tecnologia aplicada por pessoas e governos mal-intencionados. Não é à toa a dimensão que ganhou aas Leis de Proteção de Dados Pessoais, principalmente na Europa, com a pioneira e muito bem estruturada GDPR, "General Data Protection Regulation", em vigor desde maio de 2018. Diante desse breve contexto, o discurso do Presidente francês, Emmanuel Macron, em Bundestag - Berlim, em 18 de novembro de 20183, encontrou sintonia com Hawking à medida que tratou sobre os mesmos desafios que preocupam os cientistas, os riscos da transformação digital, evolução tecnológica e como a União Europeia poderá lidar com isso. As nações não estão estruturadas para enfrentar tamanha evolução. Como lidar com a evolução tecnológica e propiciar um ambiente protegido, com um comércio justo, com equilíbrio entre a liberdade individual e a solidariedade coletiva? Em seu discurso, sugeriu que a Europa mais uma vez - lembrando do pós-guerra - tome a iniciativa para o desenvolvimento sustentável da tecnologia pelas nações,   Tudo isso são valores que a Europa deve promover em resposta aos desafios contemporâneos. Essa nova responsabilidade franco-alemã consiste em proporcionar ferramentas dessa nova invenção à Europa, ferramentas da sua soberania. Essa nova etapa é assustadora no final, porque todos terão de compartilhar sua capacidade de tomada de decisões, sua política externa, de migração ou de desenvolvimento. (...) nosso mundo está numa encruzilhada: ou escolhe apressar-se, como ele já o fez, no precipício do fascínio pela tecnologia sem consciência, pelo nacionalismo sem memória, pelo fanatismo sem reparos; ou ele decide que as realizações formidáveis ??da modernidade abrem uma nova era da qual toda a humanidade poderá se beneficiar. É neste continente, é da nossa união que nasce hoje o novo modelo digital, mesclando inovação de ruptura, proteção de dados e regulação dos agentes. A partir daí, a França vem promovendo debates e ações governamentais com a finalidade de proteger a sociedade dos avanços tecnológicos e propiciar um ambiente ético e seguro. Através do Conselho de Estado, que dentre suas atribuições tem a missão de fornecer "pareceres jurídicos ao Governo e ao Parlamento sobre os seus projetos de lei e de regulamento", está buscando a construção de "uma inteligência artificial pública confiável". Assim, o Governo francês tem implantado com parcimônia e gradualmente a IA nos serviços públicos, através de uma política de implantação de inteligência artificial proativa, ao serviço do interesse geral e do desempenho público. É utilizado, por exemplo, na gestão de tráfego, defesa e segurança, combate à fraude ou políticas de emprego. Mas ao se comprometer resolutamente com a inteligência artificial, seus possíveis benefícios na qualidade do serviço público seriam inúmeros: melhoria da continuidade do serviço público 24 horas por dia, relevância das decisões e serviços prestados ou igualdade de tratamento. revisar solicitações de usuários etc. A busca é por uma automação que fortaleça, "a relação humana entre o cidadão e o funcionário público, libertando tempo graças à automatização de determinadas tarefas (avisos de recepção, pedido de documentos adicionais, etc.) e melhorar a qualidade do serviço através a realização de tarefas até então materialmente impossíveis." Com isso, segundo o próprio Conselho de Estado, o país antecipará seu quadro regulatório, através da implementação das diretrizes para a implantação da IA nos serviços públicos, uma inteligência artificial pública confiável baseada em sete princípios: primazia humana, desempenho, justiça e não discriminação, transparência, segurança (cibersegurança), sustentabilidade ambiental e autonomia estratégica. Um dos objetivos dessa diretriz é que o país tenha uma governança estruturada para que a estratégia pública de inteligência artificial seja satisfatória. Para viabilizar a governança, a França conta, além dos esforços do Conselho de Estado, com o reforço do Departamento da Direção Digital Interministerial (DINUM) "responsável pela coordenação do desenho e implementação da estratégia do Estado no domínio dos dados"; e do coordenador nacional de inteligência artificial e a Agência Nacional de Coesão Territorial (ANCT). A entidade responsável por garantir que "a tecnologia da informação esteja ao serviço dos cidadãos e que não infrinja a identidade humana, os direitos humanos, a privacidade, as liberdades individuais ou públicas" é a Comissão Nacional de Informática e Liberdades (CNIL - Commission Nationale de l'Informatique et des Libertés)4, autoridade semelhante à nossa ANPD como órgão regulador. E como tal, dentre suas funções está garantindo a conformidade com os regulamentos gerais de proteção de dados (GDPR); aconselhamento e apoiamentos gestores de projetos digitais;  DPOs (délégués à la protection des données) nomeados por empresas, associações e serviços públicos; além da análise das inovações tecnológicas sobre a privacidade e as liberdades e emissão de  recomendações; autorização para o tratamento de dados que apresentem uma particular sensibilidade; controle e imposição de  sanções administrativas e colaboração com as demais agências europeias e internacionais. Em sua estrutura, o governo Francês conta com o Etalab5, que é um departamento da Direção Digital Interministerial (DINUM), cuja função é ser um grande "Chief Data Officer" do Estado, sob a sua atribuição de "Administrador Geral de dados, algoritmos e códigos-fonte, coordena e desenho e a implementação da estratégia do Estado na área de dados, coordena a política de abertura e compartilhamento de dados públicos (dados abertos) e as ações das administrações do Estado, fornecendo suporte para facilitar a disseminação e reutilização de suas informações públicas". A França também disponibiliza a plataforma de dados abertos data.gouv.fr, destinada a "recolher e disponibilizar gratuitamente todas as informações públicas do Estado, dos seus estabelecimentos públicos e, se assim o desejarem, das autarquias locais e regionais com uma missão de serviço público". Em resumo, o principal objetivo é de se estabelecer uma governança de dados públicos transparente através dos dados governamentais abertos. Certamente, o grande diferencial está no projeto ambicioso denominado "IA for Humanity", criado a partir do discurso do presidente Macron para se instituir uma política de dados que considere a IA como uma aliada para o fortalecimento da França e da União Europeia. Em sua proposta, a França deve: (1) incentivar o compartilhamento dos dados das empresas para criar um banco de dados comuns em um modelo de governança de dados baseado na reciprocidade, cooperação e compartilhamento; (2) propor a abertura progressiva do acesso de dados, setorialmente, por razões de interesse público; (3) assegurar o direito à portabilidade de dados para qualquer indivíduo, migrando suas informações de um "ecossistema de serviço para outro sem perder seu histórico de dados". O principal objetivo é de potencializar a França em sua vantagem competitiva nos quatro setores considerados mais maduros: saúde; transporte; meio ambiente e defesa e segurança. A estratégia para se atingir esse avanço envolve 3 medidas: (1) Implementar políticas específicas do setor com foco nas principais questões, a política industrial deve se concentrar nas principais questões e desafios da nossa era, incluindo a detecção precoce de patologias, medicina P4, desertos médicos e mobilidade urbana de emissão zero; (2) Testar plataformas específicas do setor para apoiar a inovação. Devem ser criadas plataformas setoriais específicas para compilar dados relevantes e organizar sua captura e coleta; fornece acesso a infraestruturas de computação em larga escala adequadas para IA; facilitar a inovação criando ambientes controlados para experimentos; e permitir o desenvolvimento, teste e implantação de produtos operacionais e comerciais e (3) Implementar sandboxes de inovação. O processo de inovação da IA ??deve ser simplificado criando áreas de teste sandbox."6 Por outro lado, dentre tantas iniciativas positivas chamou atenção a antinomia do legislador francês, conforme comentado por Solano de Camargo,  "o artigo 33 da Lei francesa de Reforma da Justiça, promulgada pelo presidente Macron em 25 de março de 2019, proíbe expressamente a indexação de decisões dos tribunais da França e os nomes dos respectivos magistrados, evitando que esses dados sejam "reutilizados com a finalidade ou efeito de avaliar, analisar, comparar ou prever suas práticas profissionais reais ou alegadas", sob pena de prisão do infrator por até cinco anos. Em outras palavras, o legislador francês proibiu as soluções de inteligência artificial (IA) baseadas nos repositórios jurisprudenciais da França."7 Indaga-se, portanto, se a França com tal decisão está indo contra seu próprio discurso de igualdade pelo Conselho de Estado, contra o interesse geral e do desempenho público. O próprio programa "IA for Humanity" sugere a disponibilização e compartilhamento dos dados públicos, portanto, não faz muito sentido a proibição do uso dos algoritmos para a indexação das decisões dos tribunais com a finalidade de analisar, comparar ou prever suas decisões, tal uso se dá muitas vezes apenas pela necessidade de o mercado aumentar a produtividade e a eficiência dos serviços diante das ferramentas que a tecnologia oferece para esse fim. A indagação final seria qual a verdadeira finalidade dessa decisão do legislador francês, porque o cidadão pode ter suas informações tratadas - com o devido consentimento - e o judiciário, não. Afinal, as informações públicas e a transparência são defendidas pelo próprio governo francês. Isso tudo demonstra que a sociedade ainda tem muitos desafios e nenhum governo, por mais avançados que seus programada de digitalização estejam, ainda não há o amadurecimento suficiente para os avanços da tecnologia. Webliografia: https://linc.cnil.fr/fr/dossier-securite-des-systemes-dia https://politica.estadao.com.br/blogs/fausto-macedo/a-inteligencia-artificial-nos-tribunais-franceses-e-o-julgamento-de-galileu/ https://websummit.com/tm_source=google&utm_medium=cpc&utm_campaign=18596301005&utm_content=143300306118&utm_term=web%20summit%20portugal&gclid=Cj0KCQjwwfiaBhC7ARIsAGvcPe5GnWTywn4IehaWGpPU00npC_MhvJWmqaVyW1bdNPuCYVe1yZaht84aAqSeEALw_wcB https://www.aiforhumanity.fr/en/ https://www.cnil.fr/fr/intelligence-artificielle-le-conseil-detat-se-prononce-sur-la-gouvernance-du-futur-reglement-ia https://www.conseil-etat.fr/actualites/s-engager-dans-l-intelligence-artificielle-pour-un-meilleur-service-public https://www.data.gouv.fr/fr/organizations/cnil/   https://www.etalab.gouv.fr/qui-sommes-nous/ https://www.numerique.gouv.fr/dinum/ __________ 1 Disponível aqui. 2 "Web Summit" foi uma conferência de tecnologia que ocorreu na Europa e agora se estende pela América do Norte, Ásia e América do Sul. Está prevista no Brasil, na cidade do Rio de Janeiro, o "Web Summit RIO" em 2023.  3 Disponível aqui. Acesso em 29/10/2022. 4 Disponível aqui.  Acesso em 28/10/2022. 5 O Etalab "coordena e promove a ação do Estado e das organizações que estão sob sua supervisão em termos de inventário, governança, produção, circulação, exploração e abertura de dados e, em particular, códigos-fonte, organizando o melhor uso dos dados do Estado". 6 Disponível aqui. 7 Disponível aqui.
O relatório "AI Decision-Making and the Courts", publicado em junho desse ano, elaborado pelo Australian Institute for Judicial Administration (AIJA), UNSW Law and Justice, UNSW Allens Hub e FLIP Stream1, faz uma investigação consistente sobre o uso da tecnologia de IA nos tribunais. Certamente, vem crescendo a presença da tecnologia de IA na atividade jurisdicional em todo o mundo.  Há casos, como da Estônia, um Estado totalmente digital, onde os chamados "Juízes de IA" já são um fato e decidem litígios contratuais de menor monta que são levados aos tribunais. Todo o processo é muito simples, bastando a remessa dos documentos digitais das partes para a análise, seguida da decisão do magistrado de IA. Os recursos, se houverem, serão arbitrados por um magistrado humano. Essa popularização do uso das tecnologias de IA em Juízo vem sendo reconhecida como positiva, de um lado, mas preocupante de outro. Até que ponto um juiz pode ou deve acatar uma recomendação da IA sobre determinado caso, optando por apoiar sua sentença em uma decisão automatizada, que é lastreada por dados de legislação e jurisprudência? O relatório chama a atenção para o fato de que o termo inteligência "artificial" é inexato porque essa tecnologia utiliza recursos naturais e humanos para prever recomendar ou decidir em ambientais reais ou digitais e que o termo "inteligência complementar" seria mais adequado para "descrever o fenômeno se nosso objetivo fosse criar um sistema que resolva problemas que são difíceis para humanos, em vez de duplicar a inteligência humana". O problema da tecnologia de IA é que ela pode operar em diferentes níveis de autonomia. O relatório ressalta que passamos pelos sistemas de IA de primeira geração, na qual o conhecimento é decorrente de um programador humano, com conhecimento especializado em direito, que cria uma série de regras expressas nas chamadas "decision trees", cujas escolhas recebem o nome de "nodes" e podem gerar soluções com base nessas regras. A tecnologia de IA no que concerne à automação pode atuar sem controle humano, passando por diferentes níveis de 1 a 5, quando a máquina executa a tarefa com total controle, sem supervisão humana. Um exemplo dado pelo relatório, que deixa bem claro são os carros autônomos. Essa questão coloca em debate, qual o papel que os humanos devem ter no sistema de IA, principalmente quanto à tomada de decisão (saída do sistema)? A IA pode auxiliar um juiz na tomada de decisão ou decidir autonomamente? Mas quem seria o responsável por eventuais danos causados? Os designers da tecnologia? Agora, contudo, já estamos na segunda geração de tecnologias de IA interagindo com o universo jurídico. É o sistema de machine learning, que se divide em com e sem supervisão humana. No primeiro caso, o aprendizado da máquina é feito por correlações definidas por humanos, usando métodos como das árvores de redes neurais até que se chegue a resultados minimamente precisos, aqui uma ressalva, a rede neural é apenas o termo utilizado para essa metodologia tecnológica, não se trata de uma rede biológica. Há, segundo o relatório, várias formas de aprendizado das máquinas - passiva simples, ativa simples, ativa contínua e outros sistemas. Nesses casos há revisão humana (bacharel em direito) para ensinar o software a realizar a classificação correta dos documentos judiciais. Ao aplicar todas as classificações, digamos treinadas, a máquina cria um modelo classificador para os outros documentos. Já o grupo sem supervisão, utiliza o desdobramento chamado deep learning, que é capaz de criar e estabelecer padrões de correlações próprias, dissociadas da cognição humana, obtido por forma não linear de aprendizado, uma espécie de rede "neural", que depende de grande volume de dados para operar. Claro que apesar de não haver uma supervisão direta no resultado, haverá sempre um humano em sua programação, manutenção e utilização do projeto. O relatório traz outro ponto importante: a tecnologia de IA também vem sendo utilizada para analisar tendências de decisões judiciais. Na Austrália, os dados estatísticos são considerados sem valor probatório, mas levanta o questionamento se os dados forem interpretados fora do contexto, expondo a decisão do magistrado. Vale lembrar a proibição da França de se promover análise preditiva, correlacionando dados de decisões judiciais com o objetivo de prever práticas jurisdicionais, ou seja, a França quer impossibilitar que se identifique padrões em decisões judiciais, o que constitui uma posição isolada até porque a jurimetria é um fato consumado na maioria dos países que utilizam IA. E de fato é, a jurimetria é uma ferramenta extremamente útil e pode auxiliar a todos os envolvidos, não só o judiciário, mas os advogados também. Ela é uma ferramenta capaz de auxiliar inclusive na desjudicialização, trazendo informações importantes para se ter uma análise precisa de elementos que possam ser identificados para a resolução de conflitos. A aplicabilidade da tecnologia de IA na atividade jurisdicional já é amplamente conhecida no universo judicial, tendo com um dos expoentes o Legal Adviser Suport, o sistema Watson, usado no mundo inteiro, que pode disponibilizar pareceres e resultados sobres ações judiciais. Temos também o Victor, programa de IA desenvolvido pelo Supremo Tribunal Federal em convênio com a Universidade de Brasília (UnB), que emprega técnicas de machine learning para identificar temas mais recorrentes de repercussão geral na alta corte brasileira. Vale lembrar que Victor não tem autonomia para tomar a decisão final, portanto, isso muito positivo em vários aspectos, afinal seriam necessários quantos profissionais para realizar tais levantamentos em uma planilha? É o momento de utilizar a tecnologia a nosso favor em atividades repetitivas ou que requeiram uma estatística aplicada, portanto, nesse sentido, o ser humano não está descartado em hipótese alguma. Sem dúvida que todo o debate e o acompanhamento das questões éticas são fundamentais e precisam ser realizados e com monitoramento constante. O relatório australiano alerta: "cada sistema de IA é diferente - sendo necessário perguntar se em relação a um determinado sistema, há preocupações particulares que possam comprometer a abertura, prestação jurisdicional responsável, imparcial, justa e eficiente. Compreender os termos e ferramentas comuns de IA, juntamente com as principais áreas de uso da IA ??nos tribunais em todo o mundo, pode ajudar a examinar o impacto da IA ??nos principais valores judiciais em caso a caso". Sem dúvida, a questão da IA aplicada ao judiciário não envolve apenas uma questão de tecnologia da informação, mas passa por outras questões éticas, políticas e sociais. Em que medidas os recursos tecnológicos inteligentes podem evitar decisões discricionárias? Há grande esforço em produzir mecanismo de responsabilização sobre os impactos da IA como resposta aos próprios operadores do direito, jurisdicionado e Estado, porque são muitas as variáveis envolvidas na tecnologia inteligente, que vão muito além da abertura de códigos-fonte de algoritmos. As aplicações ainda estão em desenvolvimento e são muito positivas, sem deixarmos de aprimorar, desenvolver e monitoras todos os aspectos de segurança para se evitar os riscos decorrentes de aplicações incorretas ou injustiças, isso é óbvio, o mais importante de tudo e em todas as questões, resumidamente os pontos que devem prevalecer em todos os aspectos são a dignidade da pessoa humana; os direitos humanos e  o respeito aos princípios fundamentais, mantendo-se a segurança jurídica, a legalidade e a transparência, base de uma sociedade justa e fraterna. __________ 1 Disponível aqui.
terça-feira, 13 de setembro de 2022

Pressão da tecnologia sobre o futuro da advocacia

A American Bar Association (ABA)1, a Ordem dos Advogados norte-americana, tem realizado um debate intenso sobre a influência a Inteligência Artificial (IA) sobre a advocacia e a prestação dos serviços jurídicos, buscando projetar um possível futuro para a profissão. A ABA analisa o uso ampliado dessa nova tecnologia e as questões éticas envolvendo soluções de Inteligência Artificial (IA), principalmente diante do barateamento do custo de armazenamento de dados, que caiu de US$ 12,4 por GB para US$ 0,004 por GB, tornando-se, portanto, mais acessível. Uma pesquisa da Zion Market Research aponta que o mercado global de IA jurídica crescerá 35,9% até 2026 e estamos falando de bilhões de dólares. A pesquisa jurídica e de gestão de processos foram os primeiros e mais intensos usos da tecnologia de IA na rotina do advogado, porque se tornaram mais abrangentes, rápidos e precisos do que os realizados por advogados ou bacharéis. Também já está disponível no mercado uma série de softwares que pesquisam jurisprudências e legislações específicas, sugerindo medidas judiciais e ajudando na redação de peças jurídicas para obter resultados positivos nos tribunais. A tecnologia de IA ainda pode fazer uma análise preditiva, ao avaliar as decisões que determinado magistrado tomou ao longo do exercício profissional, dando o percentual dele decidir sobre determinada forma. Qual o futuro dos advogados frente à IA, segundo a ABA? De acordo com a Ordem americana, há 4 funções que a IA não pode oferecer: julgamento, empatia, criatividade e adaptabilidade. Em nível mais reduzido, os advogados já exercem essas habilidades (skills), mas somente a primeira têm relação direta com que se aprende nos cursos jurídicos tradicionais. Essas habilidades expõem o nível de mudança que a advocacia deve sofrer nos próximos anos e décadas. Até o momento, as habilidades técnicas eram fundamentais para uma profissão, agora as habilidades sociais vêm ganhando primazia porque as relações interpessoais são fundamentais no mundo corporativo. A empatia, por exemplo, é a capacidade de compreender e compartilhar a perspectiva de outra pessoa, se colocar no lugar dela, e indicar que ela foi compreendida e acolhida. Em parte, o advogado já cultiva essa habilidade de forma intuitiva porque ele já escuta o cliente e compartilha seu problema, seu conflito, sem julgamentos. Há uma preocupação legítima em resolver determinado problema, sendo capaz de comunicar seu comprometimento ao outro, com percepção e sensibilidade. A tecnologia tem levado os advogados a cultivaram a criatividade, que podemos conceituar como sendo o primeiro estágio de um processo de solução. A etimologia da palavra deriva do grego krainein, que significa realizar. Pode ser explicada também como a possibilidade de fomentar novas ideias, experimentação, ser fonte de soluções, enfim se tornou um valor para o mundo corporativo como um todo, que teria segundo Rossmann (1931) uma sequência de sete estágios - observação do problema ou oportunidade, análise, busca das informações, formulação de possíveis soluções, vantagens e desvantagens, a nova ideia e experimentação.2 A outra soft skill que o novo advogado precisará desenvolver é a adaptabilidade, ou seja, a possibilidade de saber lidar com situações novas e adversas e demonstrar flexibilidade para enfrentar as mudanças e abrir novas oportunidades. Tornou-se fundamental cultivar a autoconfiança para vencer as mudanças do mercado e da profissão. Diante do vácuo tecnológico na maioria dos currículos dos cursos jurídicos, o treinamento dos novos profissionais terá de ser propiciado pelos escritórios de advocacia. Atualmente, a American Bar Association está incluindo o dever de competência tecnológica e dever ético diante do uso de soluções de IA como essenciais às novas gerações de profissionais. A ABA coloca uma questão ética fundamental para o advogado diante do cliente à medida que deve ter expertise suficiente para entender o uso, riscos e explicar ao cliente a aplicação da solução de IA em seu processo. O advogado também terá de responder a autoridades reguladoras, que observarão se estão sendo estabelecidos padrões de conformidade para todos os provedores de serviços jurídicos que utilizem IA. Esse tema ainda é insípido no Brasil e a ABA aponta que vem acontecendo várias joint ventures entre escritórios de advocacia e provedores de solução de IA. Nesse sentido a entidade americana faz um alerta porque teme que, no futuro, os serviços jurídicos não sejam mais prestados por advogados, porque todos querem soluções eficientes, rápidas e a baixo custo, fazendo crescer  a pressão sobre os escritórios de advocacia e seu modelo de atuação profissional. __________ 1 Disponível aqui. 2 Disponível em ROSSMANN, J. The psychology of the inventor. Washington, DC: Inventor's Publishing,1931.
terça-feira, 30 de agosto de 2022

IA como agentes e não como máquinas?

O presente artigo visa trazer alguns apontamentos críticos acerca do artigo "Machine behaviour", em uma análise interdisciplinar, a qual também seria uma abordagem apropriada para se estudar tanto a temática da IA de modo geral, já que é uma disciplina com viés transclássico em sua origem, holística, como também a área do comportamento das máquinas, tal como apontam os autores no referido artigo (Iyad Rahwan, Manuel Cebrian, Nick Obradovich, Josh Bongard, Jean-Franc¸ois Bonnefon, Cynthia Breazeal, Jacob W. Crandall, Nicholas A. Christakis, Iain D. Couzin, Matthew O. Jackson, Nicholas R. Jennings, Ece Kamar, Isabel M. Kloumann, Hugo Larochelle, David Lazer, Richard Mcelreath, Alan Mislove, David C. Parkes, Alex 'Sandy' Pentland, Margaret E. Roberts, Azim Shariff, Joshua B. Tenenbaum & Michael Wellman, 25 APRIL 2019 | VOL 568 | NATURE - clique aqui). Trata-se de um campo de estudos interdisciplinar por natureza, envolvendo aspectos do comportamento das máquinas. O presente artigo faz parte de pesquisas em sede de pós-doutorado na Cátedra Oscar Sala/IEA-USP, na área de inteligência artificial. O estudo do comportamento das máquinas, isto é, da inteligência artificial é fundamental para se pensar e desenvolver de forma responsável tais aplicações, sendo poucos os estudos que seguem uma abordagem via ciências sociais e na área das humanidades, já que até o momento os estudos na área de comportamento das máquinas se limitou à contribuição dos mesmos cientistas que criaram a IA, ou seja, cientistas informáticos, roboticistas e engenheiros, os quais, contudo, não possuem conhecimento especializado acerca de análise de comportamentos, já que sequer são behavioristas treinados. Por conseguinte, do mesmo modo que nos humanos e animais, os comportamentos das máquinas não podem ser totalmente compreendidos sem o estudo integrado dos algoritmos e correspondentes ambientes sociais em que os algoritmos operam, e segundo os AA. devemos considerar a IA, portanto, como uma classe de atores com padrões de comportamento e ecologia particulares, ou seja, não deve ser considerada como um mero artefato de engenharia, o que não implicaria, contudo, no reconhecimento de ser a IA ela própria responsável de forma pessoal no caso de danos, já que os intervenientes humanos seriam, em última análise, os responsáveis por qualquer dano no caso da utilização da IA. Os estudos acerca do comportamento das máquinas devem fornecer informações sobre o modo como estes sistemas funcionam, bem como os benefícios, custos e contrapartidas apresentados, permitindo assim uma maior possibilidade de controle de suas ações, minimizando possíveis riscos, embora esta seja uma tarefa difícil, em especial em razão das características da opacidade, ubiquidade, complexidade, a caixa preta dos algoritmos de IA ("deep learning"), além da não previsibilidade das decisões finais em muitos casos. Em suas conclusões, os autores do arrigo "Machine behaviour" enfatizam que as máquinas exibem comportamentos que são fundamentalmente diferentes dos animais e dos seres humanos, razão pela qual devemos evitar o antropomorfismo e o zoomorfismo excessivos. Não obstante as importantes contribuições dos autores, em especial por trazerem a necessidade da abordagem interdisciplinar, data venia, destacamos alguns apontamentos, no sentido de contribuir para o debate democrático, e para uma perspectiva científica do estudo das novas tecnologias, em especial da IA. Os autores elencam alguns tópicos e relacionam com questões centrais, sendo estas: democracia, justiça algorítmica, cinética, armas autônomas, mercados e sociedade. No tocante ao item democracia, contudo, verifica-se uma abordagem limitada a apenas se preocupar com criação de bolhas de filtragem pelos algoritmos e se há censura de forma desproporcional do conteúdo. Não são apontados, contudo, dois temas centrais no âmbito de uma democracia, como são o da vigilância excessiva que poderá comprometer o que se entende por um Estado Democrático de Direito, e a questão da devida proteção dos direitos humanos e direitos fundamentais, os quais são a concretização ou densificação da dignidade humana, sendo esta o valor axial de qualquer Estado democrático. Considera-se que o Estado Democrático de Direito é um Estado de respeito aos direitos fundamentais e sobretudo da dignidade humana de todas as parcelas da população. É o que pode ser observado no importante caso submetido a julgamento perante o Comitê de Ciência e Tecnologia do Parlamento da Inglaterra em 2017, acerca do uso crescente de algoritmos de inteligência artificial para a produção de decisões públicas e privadas; destacando-se que tal uso no setor público pode levar a policiamento discriminatório e monitoramento indiscriminado, influência ou manipulação comportamental e invasões em larga escala de privacidade. Já no setor privado poderá levar à discriminação em áreas como recrutamento, emprego, acesso a serviços e finanças, preços diferenciados, entre outras. No item "justiça algorítmica", por sua vez, também há algumas limitações, ao ser enfocada apenas a questão da discriminação racial, decorrente apenas em caso de policiamento preditivo, ocorrendo um aumento da taxa de falsa condenação. Ocorre que os vieses dos algoritmos não se limitam à questão de discriminação racial, ocorrendo também discriminações de gênero e de classe, como destacam diversos estudos, devendo ser considerada tal interseccionalidade (Ângela Davis). Outrossim, a questão da produção de decisões algorítmicas na área criminal não se limita à concessão de liberdade condicional, mas abrangeria outros benefícios aos quais teria direito um acusado/criminoso, e também englobaria a própria decisão acerca da culpabilidade do indivíduo. Neste sentido, diversos autores corroboram tal assertiva, tais como Omer Tene, Cathy O'Neil, Frank Pasquale, com destaque para Virginia Eubanks, professora da Universidade de Albany, ("Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor"). Ao apontar para discriminações de classe, os professores da Universidade de Boston denunciam vieses de gênero/sexistas, além dos vieses de raça, como destacam a professora da Universidade da Califórnia em Los Angeles Safiya Umoja Noble (Algoritmos de opressão: como os motores de busca reforçam o racismo") e Latanya Sweeney, professora da Universidade de Harvard. No item "cinética" verifica-se que não é suficiente apenas se abordar duas únicas aplicações de IA, como veículos autônomos e armas autônomas, havendo outras aplicações de IA com risco alto ou inaceitável que não são mencionadas. No item "sociedade" apenas é citado como potencial de discriminação a "homofilia", sendo que há outras parcelas vulneráveis da população integrantes dos grupos de LGBTQ+. No item "robôs de conversação" tem-se a preocupação com a interação com crianças apenas, sendo que há outros grupos vulneráveis não mencionados, como idosos, pessoas com deficiência, além da ausência de uma abordagem necessária por meio de uma casuística, a fim de se adequar à compreensão de cada pessoa em particular. O "White paper on IA", publicado pela Comissão Europeia em 19/02/2020, ao trazer a abordagem via risquificação, separando para fins regulatórios aplicações de IA de "alto risco" e "baixo risco", especifica o que se poderia considerar como aplicações de alto risco, quando houver riscos significativos, em especial, com relação à proteção da segurança, dos direitos dos consumidores e dos direitos fundamentais; também recrutamento, situações que afetem os direitos dos trabalhadores, identificação biométrica etc. Não basta, outrossim, afirmar-se que os "intervenientes humanos são os responsáveis por qualquer dano", pois trata-se de uma abordagem genérica e simplista de uma intrincada e complexa questão, senão vejamos. As "Disposições de Direito Civil sobre robótica (2015/2103 INL) - Resolução do Parlamento Europeu", publicada em 02.04.17, apesar de trazer a atribuição de personalidade jurídica/eletrônica para algumas aplicações de IA, quais sejam, robôs autônomos mais sofisticados, considerando-se os requisitos da autonomia e da independência, prevê de forma complementar a exigência de um registro obrigatório dos robôs, um regime de seguros obrigatórios para facilitar a indenização de possíveis vítimas em casos de danos, e a criação de fundos de compensação para casos não cobertos pelo seguro. Referido documento atribui, todavia, a responsabilidade por danos, segundo o nível efetivo de instruções dadas aos robôs e o nível da sua autonomia, falando em "professor", correspondendo ao programador. Verifica-se que não é uma situação fácil identificar-se o nexo causal, e o nível de ações de cada uma das diversas pessoas que compõem uma equipe técnica responsável pela criação e desenvolvimento de uma IA, sendo tal problemática qualificada como "problema de muitas mãos", impossibilitando muitas vezes a identificação do nexo causal entre a conduta do agente e o dano produzido, já que há diversas pessoas atuantes e envolvidas no processo, existindo um verdadeiramente complexo sistema sociotécnico. Acerca de tais questões, o Alan Turing e Oxford Internet Institute/UNESCO trazem como possibilidade para se atribuir a responsabilidade, a "responsabilidade 'compartilhada' ou 'distribuída' entre designers de robôs, engenheiros, programadores, fabricantes, investidores, vendedores e usuários". Nenhum desses agentes pode ser indicado como a última fonte de ação. Contudo, tal solução teria a fragilidade de tender a diluir completamente a noção de responsabilidade, pois, se todos tiverem uma parte na responsabilidade total, ninguém será completamente responsável. Outra alternativa e proposta foi elaborada por Caitlin Mulholland, falando em "causalidade alternativa", diante da existência de um único nexo causal que não pode ser identificado de forma direta, poderíamos atribuir a sua presunção ao grupo econômico como um todo, de forma a facilitar o ônus probatório para a vítima. Já Eduardo Magrani afirma que não seria possível em sistemas sociotécnicos complexos atribuir com certeza a responsabilidade a uma única pessoa, pois a ação causadora do dano advém de um somatório de agências de seres humanos. Também não concorda com a proposta de Mulholland, pois entende que nesse caso a atribuição de responsabilidade com foco no grupo econômico poderia não ser suficiente para a atribuição justa de responsabilidade. Como proposta, aponta para a "responsabilidade compartilhada" entre os diferentes agentes atuantes na rede sociotécnica e suas esferas de controle e influência sobre as situações e sobre os demais agentes. Contudo, mais do que reconhecer a IA não apenas como um artefato, mas como um agente como proposto no artigo "Machine behaviour", tal reconhecimento é necessário no tocante à natureza (Bruno Latour), a qual reage aos nossos padrões excessivamente consumistas, antropocêntricos e destrutivos, havendo um novo imaginário hipercomplexo e hiperconectado, onde tudo e todos estão conectados, antes mesmo da internet das coisas se tornar generalizada. Daí a importância de uma análise crítica, interdisciplinar e polifacetada da temática da ética da inteligência artificial e da relação homem/técnica/natureza, fugindo-se da lógica de separação natureza em oposição à cultura, por meio da lógica de domínio da natureza, ensejando ainda mais individualismo, antropocentrismo, eurocentrismo, e a perigosa alienação na técnica de que falava Husserl, quando a razão vira puro cálculo e o saber que importa é o produzido maquinalmente, e com vistas ao mercado (utilitarismo).
terça-feira, 16 de agosto de 2022

IA e projeções futuristas

A humanidade sempre desejou saber como seria o futuro. Em 1927, o cineasta alemão Fritz Lang dirigiu o filme "Metrópolis", uma ficção científica que já previa a criação de robôs que substituiriam os humanos no trabalho.  Outros robôs viriam, como o C-3PO, da série Star Wars, dirigido por George Lucas, em 1977, o primeiro filme da franquia. Em 1982,  "Blade Runner", de Ridley Scott, mostrava como os androides, chamados de replicantes, foram criados para realizar trabalhos perigosos. O filme "Her" (Ela),  é mais intrigante porque apresenta um jovem recém divorciado, que  compra um sistema operacional com inteligência artificial que interage com humanos e começa um relacionamento  homem e máquina (Samantha), sendo que "ela" começa a apresentar sentimentos conflitantes de ciúme. Os robôs ou androides não são novidade, segundo Alexander Meirelles1 :"A Europa do século dezoito foi o palco de surgimento da palavra 'Androide', vindo a substituir, ao longo dos séculos seguintes, o uso do termo Autômato para designar seres artificiais orgânicos ou metálicos fabricados para terem o comportamento e a aparência física externa semelhante à dos humanos. Formado pela junção do grego Andro (Homem) e o sufixo oid (tendo a forma ou semelhança de), 'Androide' surgiu na Inglaterra na enciclopédia Cyclopædia; or an Universal Dictionary of Arts and Sciences (1728), de Ephraim Chambers (CLUTE & NICHOLLS, 1995, p. 34)."2 É a tentativa do ser humano copiar o Criador, o homem tentando criar um ser à sua semelhança, isso vêm da idade média, antes mesmo da criação das palavras androide e robô, havia o autômato.3 Na literatura, livros de ficção científica também  projetavam uma visão do futuro. Desde "1984", de George Orwell, lançado em 1949, tornou-se um exemplo clássico dessa busca pelo futuro. Nessa mesma linha temos "Eu, Robô", do escritor russo Issac Asimov e "Fahrenheit 451", um romance de ficção científica, escrito por Ray Bradbury e publicado pela primeira vez em 1953.  Na realidade, as  pesquisas sobre IA se iniciaram no início na Segunda Guerra Mundial e os principais idealizadores foram os cientistas Hebert Simon, Allen Newell, John McCarthy, entre outros, que pretendiam criar um androide que simulasse a vida do ser humano.   No início os estudos sobre IA buscavam apenas uma forma de reproduzir a capacidade humana de pensar, agora, estima-se que a inteligência artificial nas empresas será responsável por um aumento de 40% da produtividade nos próximos quinze anos, sendo assim uma ferramenta indispensável para quem busca um crescimento compatível com o mercado.   Para os governos, a IA deve ser usada para combater à corrupção, aperfeiçoar e tornar mais eficiente as rotinas Fiscais e Jurídicas, otimizar as agências reguladoras e atender a população com rapidez.  Um dos  mais renomados futurista, o australiano Brett King, projeta mudanças na economia em decorrência da amplitude da tecnologia de IA . No livro "Bank 2.0: How Customer Behavior and Technology Will Change the Future of Financial Services" (Banco 2.0: como o comportamento do cliente e a tecnologia mudarão o futuro dos serviços financeiros), com três edições  em 2010,2014 e 2018. Entre outras previsões do impacto da IA no sistema financeiro, afirma que os assistentes de voz terão o papel de consultores financeiros e  " um quase confidente", com quem as pessoas irão compartilhar seus sonhos e apontar a melhor oferta na compra de um imóvel, carro etc. King também  aponta como  serão as instituições bancárias totalmente digitais. Para o autor australiano, em 2030 existirá um ecossistema híbrido que incluirá gigantes tecnológicos, que estarão ligados por bancos e serão apenas os produtores e a inteligência por trás de determinados serviços disponibilizados por outros fornecedores. Mas as pessoas já não irão ao balcão, à marca, ao site ou ao app do banco para obterem esses serviços, que estarão disponíveis em um ecossistema híbrido, incluindo fintechs e bancos tradicionais.  Depois do sistema bancário, King trata agora de analisar a crise climática em outra obra: "The Rise of Technosocialism: How Inequality, AI and Climate will Usher in a New World" (A ascensão do tecnossocialismo: Como Desigualdade, IA e Clima vão Moldar um Novo Mundo). Nesse livro também aborda as perspectivas futuras dos bancos centrais, que na sua opinião precisarão se tornar companhia de tecnologia para realizar a regulação com eficiência em um mundo digital. Na visão de King, a rejeição parcial à inteligência artificial pode se dar ainda pelo medo da criação de  um novo feudalismo ou  tecnossocialismo . Para ele não se trata de um socialismo clássico, como conceituado por Marx, pelo qual os meios de produção são dominados pelos trabalhadores, mas é o domínio da economia pela tecnologia, que estará ao alcance dos cidadãos, que terão suas necessidades atendidas. Nesse cenário, o capitalismo, os mercados e as corporações terão novo papel em um novo mundo. No mesmo livro, King alerta para o caos que as crises climáticas podem desencadear no mundo, como desemprego, fome, catástrofes ambientais e deslocamento das populações.  Para resolver esses problemas futuros, o escritor aposta no uso da inteligência artificial  por parte dos governos para encontrar soluções mitigadoras para a crise climática. King ressalta, ainda, que o uso da inteligência artificial pode acentuar as desigualdades entre as populações, pois com o uso da IA, à medida que cresce a demanda, haverá mais processos do sistema de produção autônomo. O nível de trabalho  na economia vem se  reduzindo e isso está acontecendo desde os anos 1980 , mas deve se acentuar , ainda mais,  em nível planetário. Por este motivo há uma alternativa racional como meio de barrar o tecnosocialismo, é a proposta do capitalismo humanista desenvolvido pelo Professor Ricardo Sayeg e Wagner Balera4. Com base em um direito natural integrado à norma jurídica, buscando criar uma economia humanista, "no qual os direitos humanos em todas as suas dimensões são reconhecidos e concretizados, em correspondência ao direito objetivo da dignidade da pessoa humana e planetária." Ainda os autores do Capitalismos Humanista apontam "que as profundas mazelas do capitalismo - como a exclusão de seres humanos e o esgotamento do planeta - só serão ultrapassados com a preservação da dignidade da pessoa humana, metassíntese da economia, da política e do direito, que, unidos e com sincronismo, devem implicar a sociedade fraterna". (Sayeg, Ricardo e Balera, Wagner. P.30)5 Em outubro de 2020, em plena pandemia do Covid-19 o então prefeito da Cidade São Paulo, Bruno Covas sancionou a Lei 17.481/20 que instituiu a declaração de direitos de liberdade econômica, garantindo livre mercado e a análise de impacto regulatório6. Foi criado então o índice de bem-estar econômico denominado ICapH, desenvolvido pelo Instituto do Capitalismo Humanista com a participação pelos professores Ricardo Sayeg (HSLAW) e Wagner Balera, o jurista e advogado Yun Ki Lee, em conjunto com o professor Manuel Enriquez Garcia da FEA/USP7, passando a ser considerado de utilidade pública como instrumento orientador de política pública no Município de São Paulo. Segundo o Instituto do Capitalismo Humanista, o índice ICaph tem como seu principal aspecto a satisfação da população, fator sem dúvida nenhuma que pode trazer benefícios contra a possíveis desigualdades que podem ser criadas devido aos avanços da tecnologia: "sob estas premissas, o Índice do Capitalismo Humanista (iCapH), correspondente ao índice de (in)satisfação popular de avaliação qualitativa, ou seja, do "maior ou menor grau de perfeição"  na concretização da economia capitalista associada ao bem-estar econômico, fundado percepção cognitiva e imagem da economia perante a população, no tocante à concretização da força resultante do conjunto destes doze (12) fatores econômicos e humanistas da ordem constitucional econômica consagradas no Artigo 170, da Constituição Federal.  Utilizando os doze (12) fatores da ordem econômica constitucional, no ambiente capitalista literalmente estabelecido na Carta Política brasileira, o iCapH está baseado nos critérios constitucionais, que são objetivos e seguros, quais seja, aqueles fixados pela soberania popular que os constituintes expressaram no pacto social nos termos do Artigo 170, da Constituição Federal."8 Estamos diante de uma das maiores ameaças contra a humanidade, se colocadas em mãos erradas ou que se tornem realidade as palavras de Brett, a humanidade pode ver o seu fim, o físico Stephen Hawking afirmou em entrevista que se os cientistas conseguirem atingir a criação de uma IA com equivalência à mente humana ou superior será o fim da raça humana9. Segundo ele, estamos limitados à evolução biológica, porém, por enquanto, as soluções envolvendo a IA são consideradas fracas e, enquanto isso, a conscientização e o debate para a criação de diretrizes e normas que determinem até onde se pode chegar serão fundamentais, a proposta do Capitalismo Humanista, porém, vai além, é uma proposta estrutural, centrada na dignidade do ser humano, um capitalismo transformador e necessário frente à evolução. __________ 1 Alexander Meireles da Silva é Doutor em Literatura Comparada pela Universidade Federal do Rio de Janeiro (2008), Mestre em Literaturas de Língua Inglesa pela Universidade do Estado do Rio de Janeiro (2003), Especialista em Educação a Distância pelo SENAI-RJ (2003), Especialista em Literaturas de Língua Inglesa (2000), Bacharel e Licenciado em Língua Inglesa e Literaturas Correspondentes (1998) pela Universidade do Estado do Rio de Janeiro. 2 FRANÇA, Júlio. "Medo". In: REIS, Carlos; ROAS, David; FURTADO, Filipe; GARCÍA, Flavio; FRANÇA, Júlio (Editores). Dicionário Digital do Insólito Ficcional (e-DDIF). Rio de Janeiro: Dialogarts. Acessado em 14/08/2022. 3 Ibidem. 4 Sayeg, Ricardo. Balera, Wagner. (Livro digital). O Capitalismo Humanista. Filosofia Humanista de direito econômico. KBR Editora Digital LTDA. 2011. 5 Ibidem. 6 Disponível aqui. 7 ibidem 8 Disponível aqui. 9 Disponível aqui.
A temática da inteligência artificial está intimamente relacionada com a proteção de dados no âmbito do que se denomina de "big data", já que grande parte das aplicações de IA utilizam-se de banco de dados. Como bem é apontado no livro "The rise of big data policing: surveillance, race, and the future of law enforcement"1 a governança de algoritmos deveria se pautar em algumas questões essenciais, de modo a se evitar o determinismo tecnológico, tais como: é possível identificar os riscos que a tecnologia escolhida está tentando endereçar? É possível defender os inputs do sistema (acurácia dos dados e idoneidade da metodologia)? É possível defender os outputs do sistema e como eles impactarão as políticas em prática e as relações comunitárias? É possível testar a tecnologia, oferecendo "accountability" e alguma medida de transparência? A política de uso da tecnologia respeita a autonomia das pessoas que elas irão impactar? Envolvendo tal questão foi proferida uma decisão judicial de 02/2020 pela Corte de primeira instância de Haia, acerca do sistema denominado de SyRI na Holanda (Systeem Risico Indicatie), com o objetivo de detecção de fraudes tais como sonegação e recebimento indevido de benefícios de seguridade social, a partir da construção de perfis de risco de suspeitos, por meio da utilização de base dados comportamentais registrados em diversos sistemas governamentais. Entendeu-se que o sistema não estabelecia as salvaguardas exigidas pela Convenção Europeia de Direitos Humanos (art. 8º, § 2º), no tocante à ponderação entre os interesses sociais e os potenciais danos quanto às liberdades e direitos fundamentais. Mais do que nunca é urgente que as temáticas do direito digital em sentido amplo se atentem às contribuições do Constitucionalismo Digital ("digital constitucionalism"), como apontam autores como Giovanni di Gregorio da Bocconi University, Gilmar Mendes, Edoardo Celeste, Claudia Padovani e Mauro Santaniello, frisando a necessidade de se postular pelo uso das estruturas e mecanismos do constitucionalismo moderno para guiar a governança do espaço digital, a fim de ser assegurado um maior equilíbrio das relações jurídicas e a proteção dos direitos fundamentais. Neste sentido Gunther Teubner2 traz uma importante contribuição ao mencionar a formulação tradicional da abordagem de direitos fundamentais sob uma perspectiva individualista de equilíbrio entre direitos individuais dos atores privados na esfera digital, a qual encontra-se desatualizada, não sendo mais suficiente, devendo ser abordada a dimensão coletivo-institucional dos direitos fundamentais. Isto porque as redes sociais, a exemplo do Facebook com seu Oversight Board ou "Suprema Corte do Facebook" estaria a exercer uma verdadeira função normativa. Wolfgang Hoffmann-Riem aponta para a importância no âmbito da inteligência artificial dos direitos fundamentais e da proporcionalidade para se compatibilizar a proteção e de outro lado não impedir a inovação, sugerindo a proposta de "responsabilidade pela inovação", ou "innovation forcing"3. Trata-se da definição normativa de objetivos ou padrões que ainda não podem ser cumpridos sob o padrão de desenvolvimento atual, mas que são plausíveis de serem cumpridos no futuro. Caso não haja tal implementação dentro de determinado período o desenvolvimento e uso da aplicação de IA em questão devem ser abandonados. É o que destaca também Laura Mendes em sua apresentação ao livro: "o professor Hoffmann-Riem nos ensina que a preocupação com a preservação e atualização dos direitos fundamentais deve ser constante, enxergando o Direito como um instrumento de limitação de poderes e de regulação da inovação, de acordo com os objetivos e os valores firmados no ordenamento jurídico, especialmente, os princípios constitucionais".4 É destacada a importância da transparência para a responsabilização, permitindo-se um controle externo eficaz, fundamentais para uma corresponsabilidade democrática. Nas palavras de Wolfgang Hoffmann-Riem: É importante tanto para os usuários como para as autoridades de controle e para o público em geral, enquanto portadores de corresponsabilidade democrática, que o tratamento de dados, incluindo a sua utilização no contexto da análise de Big Data, seja compreensível e controlável na medida em que interesses jurídicos individuais ou coletivos possam ser negativamente afetados. Os requisitos de transparência referem-se não só à possibilidade de perceber a superfície da comunicação, mas também ao conhecimento dos fenômenos que são importantes para compreender o funcionamento do controle baseado em algoritmos. Isso se aplica, por exemplo, ao design técnico e aos critérios e conceitos do uso de algoritmos. A transparência é um pré-requisito para garantir, em particular, a responsabilização. (...) A eliminação dos déficits de transparência pressupõe requisitos legais que garantam a disponibilidade de informação suficiente sobre o campo regulatório a ser influenciado, não apenas sobre os dados na posse de atores públicos ou privados, mas também sobre a forma como eles são gerados e utilizados e a medida em que cumprem os requisitos legais.5 O constitucionalismo digital possuiria uma natureza pré ou proto-constitucional por se referir a reações normativas difusas e que não se limitam ao âmbito do Estado-Nação, com foco na proteção dos direitos digitais, a limitação do exercício do poder em e através das obras da rede digital e à formalização dos princípios de governança para a Internet. Embora, algumas legislações formais sobre a internet se situem em um plano infraconstitucional, apresentam uma verdadeira natureza "pré" ou "proto-constitucional", uma vez que estabelecem verdadeiros blocos de interpretação das constituições formais na esfera digital. Seria algo como o constitucionalismo "societal" (social ou societário) de Sciulli, o qual adota e desenvolve Teubner. Por sua vez na área de IA fala-se em abordagem via risquificação, por meio de regulações que possuam uma parte principiológica e outra parte prevendo documentos importantes e que devem ser obrigatórios nos casos de elevados riscos ou moderados a direitos fundamentais, devendo prever igualmente seus requisitos e procedimento de elaboração. A heterorregulação, portanto, deverá ser complementada pela autorregulação regulada, por meio de boas práticas, "compliance", e via arquitetura técnica e design de IA. Um outro aspecto essencial é a conjugação da abordagem com base no risco (proteção) mas também em escala, visando não obstar a inovação. Diversos autores defendem a perspectiva da risquificação tais como Serge Gutwirth & Yves Poullet, Claudia Quelle e Alessandro Spina, Zanatta, com destaque dos instrumentos de regulação "ex ante", como códigos de conduta, certificações, auditorias independentes, e a elaboração de documentos de avaliação tais como DPIA - Relatório de Impacto de proteção de dados e LIA - Avaliação do Legítimo interesse e a Avaliação de algoritmos de IA. Refletem tal mudança de abordagem alguns importantes documentos regulatórios publicados pela Comissão Europeia como, por exemplo, a Resolução do Parlamento Europeu de 20/10/2020 e as Recomendações à Comissão Europeia sobre o regime de responsabilidade civil aplicável à IA de 2020 (2020/2014 INL) como se observa dos Considerandos 6 e 7 afirmando que não é mais necessário se conferir personalidade jurídica as aplicações de IA. No mesmo sentido o documento denominado "White paper on IA" publicado pela Comissão Europeia em 19/02/2020. Referido documento traz uma separação, para fins regulatórios entre IA de alto risco, de risco moderado e baixo. No caso de risco alto há uma série de condições-chave que deverão ser observadas (robustez, precisão e supervisão humana e garantia dos direitos fundamentais). No caso de risco baixo há a observância de regras padrão, de adesão voluntária ("voluntary labelling"), uma espécie de certificação e rotulagem voluntária, ou  selo de qualidade. Um dos mais importantes documentos da Comissão Europeia na linha da abordagem via risquificação, é o AI Act de 21/04/2021 da IA (Regulamento da IA) trazendo também a perspectiva do "human rights by design", "beneficial AI", "AI for good" e "HumanCentered AI". Referida regulação traz a separação entre aplicações de riscos inaceitáveis, com proibição expressa, risco alto, moderado e baixo. Uma das aplicações consideradas como de risco inaceitável é a tecnologia de vigilância do reconhecimento facial, com exceção da utilização por órgãos governamentais para a prática de investigação de crimes graves. O AI ACT - 04.2021: segue a ótica já traçada quando do GDPR -  Regulamento Geral de Proteção de Dados da União Europeia, das Recomendações do Parlamento Europeu à Comissão sobre disposições de Direito Civil sobre Robótica de 02/2017, da Estratégia Europeia para a IA de 04/2018 -"IA para a Europa" (COM/2018/237) buscando de um lado a proteção aos direitos fundamentais, e de outro não obstar a inovação. As abordagens devem ser conjuntas a fim de alcançarmos uma proteção sistêmica, via heterorregulação (com abordagem via risquificação), via arquitetura técnica (protection by design), mas trazendo também em consideração a coletivização, ou seja, a partir do reconhecimento da múltipla dimensionalidade dos direitos fundamentais, envolvendo aspectos individuais, coletivos e sociais. E como afirma Claudia Quelle, Univ. Tilburg as metodologias no caso de abordagens de risco serão influenciadas pela teoria do balanceamento de direitos fundamentais, diante de casos concretos. Neste sentido por exemplo, o European Data Protection Board (EDPB) ao comentar sobre os critérios de avaliação do risco para a elaboração do DPIA, na linha do GDPR (Consideranda 84 e art. 35), afirma a necessidade de se observar um procedimento envolvendo a avaliação da necessidade e da proporcionalidade. Isto porque estamos sempre falando de casos de possíveis colisões de normas de direitos fundamentais. Um segundo ponto fundamental da abordagem de proteção sistêmica refere-se à revisão de alguns documentos internacionais, no que tange à abordagem de proteção aos direitos fundamentais, senão vejamos. Ao observamos o AI Act de 21/04/2021 da Comissão Europeia, apesar de trazer a consideração do "human rights by design", "beneficial AI", "AI for good" e "Human Centered AI", ou seja, de uma abordagem "centrada no ser humano", trazendo o eixo valorativo da pessoa humana e da dignidade humana, encontra algumas falhas e omissões.  Apesar de uma abordagem via risquificação, procurando não impedir a competição internacional e a inovação, com uma lista de aplicações de IA de risco inaceitável, com proibição expressa, por afrontarem os valores da União Europeia, verifica-se que o uso de tecnologias de vigilância (sistemas de identificação biométrica à distância, em tempo real, e em espaços acessíveis ao público), apesar de proibida, traz algumas exceções, tal como no caso de investigação de crimes graves. As exceções são exaustivas e se fundam em motivos de interesse pu´blico abrangendo: procura de potenciais vi´timas de crimes, incluindo crianc¸as desaparecidas, ameac¸as a` vida ou a` seguranc¸a fi´sica de pessoas singulares ou ameac¸as de ataque terrorista, e a detecc¸a~o, localizac¸a~o, identificac¸a~o ou instaurac¸a~o de ac¸o~es penais relativamente a infratores ou suspeitos de infrac¸o~es penais, a que se refere a Decisa~o-Quadro 2002/584/JAI do Conselho, desde que puni´veis no Estado-Membro em causa com pena ou medida de seguranc¸a privativas de liberdade de durac¸a~o ma´xima na~o inferior a tre^s anos. Entre os crimes previstos no Quadro 2002 podem ser citados a participac¸a~o numa organizac¸a~o criminosa, terrorismo e o tra´fico de seres humanos.6  Apesar das aplicações de elevado risco submetem-se à observância de regras e obrigações rígidas, com destaque para os requisitos referentes a` elevada qualidade dos dados, a` documentac¸a~o e a` rastreabilidade, a` transpare^ncia, a` supervisa~o humana, a` exatida~o e a` solidez, há também a previsão da elaboração de uma avaliac¸a~o da conformidade "ex ante". A fragilidade do documento é refletida quando afirma que em regra tal avaliação será realizada pelo próprio fornecedor, salvo no caso dos sistemas de IA concebidos para serem utilizados para a identificac¸a~o biome´trica a` dista^ncia de pessoas. A própria exceção prevê a fragilidade de tal concepção, pois no caso único da exceção demandaria como exigência a participac¸a~o de um organismo notificado, o qual deverá estar submetido a uma se´rie de requisitos, nomeadamente em termos de independe^ncia, compete^ncia e ause^ncia de conflitos de interesse.  É o que assevera o Ada Love Lace Institute ao afirmar ser fundamental o respeito a um dos componentes constitutivos de uma avaliação de impacto, e necessário para inclusão em qualquer dessas avaliações de impacto em IA, qual seja, a necessidade de uma "fonte de legitimidade", isto é, que tais avaliações sejam realizadas por outra estrutura organizacional, institucional, tal como uma agência governamental, destacando que a maioria dos processos AIA são controlados e determinados pelos que tomam as decisões do processo algorítmico, podendo gerar documentos de avaliação também enviesados ("Algorithmic impact assessment: user guide"). Portanto, além de uma mudança de abordagem no design tecnológico, pensando-se a longo prazo, de forma sustentável, talvez na forma de um "design subversivo" ao invés do design dominante no sentido de um projeto colonizador,  também a regulamentação deverá rever estes pontos de fragilidade, trazendo o foco na proteção sistêmica e neste sentido é necessária uma reformulação do que se tem tratado como proteção de direitos fundamentais no âmbito da proteção de dados e da inteligência artificial, por ignorarem em muitos casos a construção epistemológica e metodológica da teoria dos direitos fundamentais enquanto teoria fundamental do direito, trazendo equívocos no que tange à natureza dos direitos fundamentais, e a correta resolução de colisão de normas de direitos fundamentais, via princípio da proporcionalidade, adequadamente entendido, o que ainda precisa ser melhor compreendido. __________ 1 Andrew Guthrie Ferguson, "The rise of big data policing: surveillance, race, and the future of law enforcement". Nova Iorque: New York University Press, 2017. 2 Gunther Teubner. "Horizontal Effects of Constitutional Rights in the Internet: a legal case on the digital constitution". Italian Law Journal, v. 3, n. 2, p. 485-510. 2017. 3 Wolfgang Hoffmann-Riem, "Teoria Geral do Direito Digital", Forense, ed. kindle, pp. 13-14; p. 150 e ss. 4 Laura Mendes, Ibidem, p. 04 e ss. 5 Wolfgang Hoffmann-Riem, "Big data e inteligência artificial: desafios para o direito", 6 Journal of institutional studies 2 (2020), Revista Estudos Institucionais, v. 6, n. 2, p. 431-506, maio/ago. 2020, p. 44. 6 Outros crimes citados são  explorac¸a~o sexual de crianc¸as e pedopornografia, tra´fico ili´cito de estupefacientes e de substa^ncias psicotro´picas, tra´fico ili´cito de armas, munic¸o~es e explosivos, corrupc¸a~o, fraude, incluindo a fraude lesiva dos interesses financeiros das Comunidades Europeias na acepc¸a~o da convenc¸a~o de 26 de Julho de 1995, relativa a` protecc¸a~o dos interesses financeiros das Comunidades Europeias, lavagem de dinheiro (branqueamento dos produtos do crime), falsificac¸a~o de moeda, incluindo a contrafacc¸a~o do euro, cibercriminalidade, crimes contra o ambiente, incluindo o tra´fico ili´cito de espe´cies animais ameac¸adas e de espe´cies e esse^ncias vege- tais ameac¸adas, auxi´lio a` entrada e a` permane^ncia irregulares, homici´dio volunta´rio, ofensas corporais graves, tra´fico ili´cito de o´rga~os e de tecidos humanos, rapto, sequestro e tomada de refe´ns,  racismo e xenofobia,  roubo organizado ou a` ma~o armada,  tra´fico de bens culturais incluindo antiguidades e obras de arte, burla, extorsa~o de protecc¸a~o e extorsa~o, contrafacc¸a~o e piratagem de produtos, falsificac¸a~o de documentos administrativos e respectivo tra´fico, falsificac¸a~o de meios de pagamento, tra´fico ili´cito de substa^ncias hormonais e outros factores de crescimento, tra´fico ili´cito de materiais nucleares e radioactivos, tra´fico de vei´culos roubados, violac¸a~o, fogo-posto, crimes abrangidos pela jurisdic¸a~o do Tribunal Penal Internacional, desvio de avia~o ou navio, sabotagem.
terça-feira, 19 de julho de 2022

Antifragilidade e os desafios da IA

Qual a relação entre a teoria  da antifragilidade de Nassim Taleb e a Inteligência Artificial? Taleb é um polêmico ensaista, filósofo e matemático, que entende a volatilidade do mercado financeiro como ninguém, porque atuou nele por décadas, com sucesso. É criador do best seller "Cisne Negro", que criou um conceito ligado a um fenômeno raro, imprevisível e com consequências extremas, caso da covid-19 e do 11 de setembro. Também criou um conceito que estende a ideia de resilência corporativa - a antifragilidade. O conceito de antifragilidade¹ vem destronar o conceito arraigado de resiliência do mundo corporativo. Da Física às Ciências Humanas, o conceito da resiliência veio evoluindo para explicar como as pessoas e as organizações conseguem superar situações adversas, de intenso estresse e imprevisibilidade. Para ser resiliente é preciso saber resistir, superar e até vencer situações adversas, como crises climáticas, crimes cibernéticos, ameaças pandêmicas, falha em cadeias de suprimentos e outras. A antifragilidade estende o conceito de resiliência discutindo como as organizações e pessoas podem usar situações adversas, aprender com elas e se recuperarem melhores do que estavam antes. Etimologicamente, a palavra resiliência vem do latim "resilio", que significa recuar, voltar, romper. Inicialmente, foi empregada como um fenômeno da física, que se referia à propriedade de alguns materiais de voltar à forma original, mesmo depois de terem sido submetidos à tensão e à pressão, demonstrando resiliência ou processo de resiliência. Guarda, portanto, a ideia de qualidades como flexibilidade, elasticidade etc. Ao ser um conceito incorporado pelas ciências humanas, a resiliência passou a se referir a indivíduos que conseguiam enfrentar adversidades de forma positiva, enfrentando conflitos de forma construtiva e mantendo o equilíbrio. Já Taleb entende que é possível ir além da resiliência pela transformação e disrupção através do caos. . A antifragilidade trata-se de um conceito para transpor a adversidade, a incerteza e a volatilidade das crises para se transmutar em um profissional ou uma empresa melhor. É como tirar lições do fracasso. Daí a proximidade com a IA - Inteligência Artificial, que nada tem de linear. O processo da machine learning tem grande proximidade como a teoria da antifragilidade porque se abre para inúmeras soluções possíveis. É o caso de se colocar uma máquina contra outra para executar determinado procedimento, na busca de um objetivo.   A etmologia da palavra "frágil" deriva da palavra latina fragilis,  significando pouca resistência, delicadez, sem solidez. Taleb explica como construiu o conceito: "Algumas coisas se beneficiam de choques; prosperam e crescem quando expostos à volatilidade, aleatoriedade, desordem e estressores e aventura amorosa, risco e incerteza. Ainda, apesar da onipresença do fenômeno, não há palavra para o exato oposto de frágil. Vamos chamá-lo de antifrágil. A antifragilidade está além da resiliência ou robustez. O resiliente resiste a choques e continua o mesmo; o antifrágil fica melhor. Esta propriedade está por trás de tudo que mudou com o tempo: evolução, cultura, ideias, revoluções, sistemas políticos, inovação tecnológica, sucesso cultural e econômico, sobrevivência corporativa, boas receitas (digamos, canja de galinha ou bife tártaro com uma gota de conhaque), a ascensão das cidades, culturas, sistemas jurídicos, florestas equatoriais, resistência bacteriana ... até mesmo a nossa existência como espécie neste planeta ". A antifragilidade, segundo Taleb, nos permite lidar com o desconhecido e é cheia de interdependências. Por exemplo, se o número de funcionários de uma determinada fábrica for dobrado, não se obterá o dobro da produção inicial e dois finais de semana na Filadelfia não são melhores do que um único. "Sistemas complexos feitos pelo homem tendem a desenvolver cascatas e cadeias de reações descontroladas que diminuem, até mesmo eliminam, a previsibilidade e causam eventos desproporcionais", explica em sua obra. As respostas que diversas organizações dão em momentos de crise, como a causada pela covid-19, mitigando efeitos negativos e possibilitando a retomada das atividades de forma melhor ao que se tinha antes da crise, denota a antifragilidade de uma organização, ou seja, sua capacidade de se reinventar a despeito de eventos adversos, minimizando impactos inesperados, aprendendo e voltando a operar mais fortes do que antes. "A antifragilidade está além da resiliência ou da robustez. O resiliente resiste aos choques e permanece o mesmo; o antifrágil melhora", ensina Taleb. O conceito é similar ao processo pelo qual passa a estrutura muscular de uma pessoa iniciante na atividade física da musculação. No seu primeiro dia, ela consegue levantar determinado peso, pois seus músculos não estão acostumados, nem com os movimentos, nem com a carga. Ao longo do segundo e terceiro dias, essa pessoa sente muitas dores como consequência do rompimento das fibras musculares ocasionadas pelo exercício. Nesse processo, os músculos se recuperarão fortalecendo sua estrutura para que os mesmos movimentos e cargas não mais ocasionem rompimento de suas fibras. Dessa forma, se essa pessoa estimula frequentemente seus músculos, fornece os nutrientes adequados na janela de tempo correta, dorme bem e tem uma boa saúde, os músculos se recuperam fortalecendo sua estrutura.  O conceito de antifragilidade se aplica à IA enquanto estivermos tratando da tecnologia do aprendizado autorregulado da máquina, sem interferência do fator humano, que poderia intervir nos dados/algoritmos iniciais e gerar falhas na saída. É um sistema próximo à teoria do caos, criada por Edward Lorenz, no qual temos flexibilidade, adaptação, transformação, disrupção e antifragilidade.  Por exemplo, uma empresa de serviços de streaming muito popular no país usa o conceito de chaos monkey para identificar vulnerabilidades e melhoras seus sistemas operacionais. Basicamente, estressa propositalmente seu sistema, verifica onde há pontos fracos e implementa medidas para fortalecer o sistema como um todo. Nesse sentido, os mecanismos de inteligência artificial tem sido usados para continuamente expor fragilidades de sistemas para melhorá-los através do aprendizado gerado pelo caos (ver Canonico et al., 2020). ______ 1 TALEB, Nassim N. Antifragile: Things That Gain from Disorder. New York: Random House, 2012.  2 Fernando Picasso é doutor em administração de empresas pela FGV, professor em gestão da cadeia de suprimentos no Insper, pesquisador nas áreas de risco e resiliência em cadeias de suprimentos e sustentabilidade em cadeias de suprimentos e consultor em gestão da cadeia de suprimentos.