É possível a proibição de Inteligências Artificiais de linguagem no Judiciário?
quinta-feira, 11 de maio de 2023
Atualizado às 07:44
No dia 26 de abril, foi noticiado que a Comissão de Tecnologia da Informação e Inovação do Conselho Nacional de Justiça está analisando um pedido acerca da necessidade de proibir juízes brasileiros de utilizarem a tecnologia ChatGPT da empresa OpenAI1. A notícia veio dias depois de um advogado, que utilizou o ChatGPT para elaborar sua petição, ter sido condenado por litigância de má-fé pelo Tribunal Superior Eleitoral2.
O Conselho Nacional do Ministério Público também anunciou que irá estabelecer regras claras para o uso da ferramenta, diante da possibilidade de dados pessoais sensíveis serem inseridas na plataforma.3
Esse tipo de tecnologia chamada de LLM - Large Language Model (modelo de linguagem), ganhou os holofotes do mundo no final de 2022 com a disponibilização da versão 3 do ChatGPT, produzida pela OpenAI, para acesso massificado. Em uma semana, o produto atingiu mais de 100 milhões de acessos, demonstrando o interesse e instigando a curiosidade da sociedade mundial por sua precisão na interação com o humano. A tecnologia, entretanto, tem provocado grandes discussões, tanto acadêmicas quanto legislativas, por trazer consequências ainda incalculáveis que podem alterar drasticamente a relação do ser humano com o conhecimento.
Ao redor do mundo, desde antes da hype das IAs generativas, a União Europeia e o Brasil já empreendiam esforços para a regulação de tecnologias de inteligência artificial, inclusive ouvindo a sociedade civil e a comunidade acadêmica.4 Até mesmo nos Estados Unidos, país conhecido por suas posições mais flexíveis no contexto de regulação de tecnologias, disponibilizou uma possível estrutura regulatória a nível federal.5 Além disso, a China, que já tem uma forte estratégia para o desenvolvimento de IA e uma agenda até 2030, adiantou-se e iniciou um processo legislativo para regular IAs generativas.6
Como modelo de linguagem natural, esse tipo de tecnologia tem uma variedade infindável de aplicações, especialmente nas áreas que têm na comunicação seu principal meio de manifestação. O Direito se manifesta pela linguagem e, por isso, essa tecnologia já tem sido utilizada (ainda que, na maioria das vezes, não de forma declarada) pelos diversos atores do ecossistema de justiça. E por isso, se no mundo tem se discutido as consequências de sua utilização em todos os setores (educação, trabalho, artes, jornalismo, etc.), no Direito também existem formas de utilização e riscos específicos que precisam ser levantados.
Neste artigo abordaremos três pontos: os usos que essas tecnologias podem ter no sistema jurídico, os riscos inerentes a esses usos e perspectivas futuras de formas possíveis para controle.
A relação entre Direito e linguagem começa a passar por uma transformação com as novas tecnologias e modelos de linguagem, uma vez que os algoritmos passam a realizar tarefas em nome dos profissionais da área. Dentre os usos já mapeados, temos: modelos preditivos, organização de documentos, busca textual, automação de documentos e decisões automatizadas7.
Os modelos preditivos atualmente conhecidos são aqueles de jurimetria, que são voltados para a previsão de decisões com base na análise de históricos de decisões de juízes singulares. A França polemizou a utilização da jurimetria quando criminalizou8 a prática de coletar dados pessoais de magistrados com o objetivo de analisar suas decisões para previsão de tendências decisórias. Os sistemas de linguagem também podem auxiliar na organização de documentos e busca facilitada de informações em grandes quantidades de bases de dados, facilitando a busca por informações dentro de processos pelos juízes, servidores e partes.
Essas tecnologias também podem gerar textos que reproduzem as informações armazenadas nas suas bases de dados, permitindo a automação do processo decisório. O caso em questão que o CNJ foi instado a analisar diz respeito a esse tipo de uso por meio do ChatGPT.
Ocorre que esses usos vêm acompanhados de riscos, que podem ser aqueles inerentes aos desequilíbrios de poderes que acompanham os desenvolvimentos de tecnologias e aqueles que decorrem de modelos lógicos baseados em probabilidades, e não mais na lógica da tipografia do Direito9.
Os primeiros riscos decorrem da concentração do poder tecnológico nas mãos de grandes corporações. Existe um motivo pelo qual o modelo GPT 3.5 acabou tomando os holofotes: ele é o principal modelo de linguagem que, através da interface ChatGPT, conseguiu êxito em facilitar a comunicação entre homem e máquinas no nível da linguagem humana usual. Isso só foi possível pelos milhões de dólares investidos pela empresa OpenAI e, agora, com grande participação da Microsoft10. Esses modelos são extremamente custosos para treinamento, impossibilitando a entrada no mercado da tecnologia por pequenas startups11 e, no caso de um Poder Público, o desenvolvimento dos próprios algoritmos.
A implementação de sistemas que permitem a criação de decisões por meios de algoritmos concentrados nas mãos de uma ou duas empresas privadas demanda análises sobre o monopólio da jurisdição pelo Estado e os limites na adoção de tecnologias para auxílio dela.O segundo grande grupo de riscos diz respeito às consequências de tecnologias com lógicas numéricas baseadas em probabilidades serem utilizadas pelo Direito, que é um sistema social que tem como base a lógica da tipografia e da linguagem.
Problemas envolvendo a uniformização da produção jurídica, o descompasso das bases de dados virtuais com os desenvolvimentos culturais da sociedade e até mesmo os danos que decorrem de probabilidades fazem parte desses riscos.
O contexto da geração de petições e decisões automatizadas, ainda que permita uma maior produtividade por parte dos juízes e gere a possibilidade de diminuição da estrutura funcional do Judiciário e uma maior assertividade para os advogados, é acompanhado por todos esses riscos
A proibição de uso pelo CNJ, entretanto, se coloca como solução simplista que, além de ineficaz, talvez seja impossível de ser garantida.
No âmbito do Judiciário, essa solução demandaria que todos os domínios de aplicações que utilizam a tecnologia da OpenAI fossem banidos pelas configurações de acesso das redes dos tribunais brasileiros, o que, na prática, é um desafio por si só. Isso acontece porque muitas empresas e desenvolvedores estão criando aplicações que funcionam com a tecnologia da OpenAI através de APIs (Application Programming Interface) ou até mesmo com códigos abertos disponíveis na plataforma GitHub, o que torna quase impossível o mapeamento de um cenário que está em constante mudança. Além disso, obviamente, não impediria os juízes e demais servidores de utilizarem seus dispositivos e redes móveis para acessar essas aplicações.
No que diz respeito à proibição dos advogados em utilizar a ferramenta, essa podeimpossível de ser verificada na prática. Primeiro porque, conforme demonstramos, elas podem ser utilizadas para várias funcionalidades além de geração de textos.
Em relação ao banimento de petições e julgamentos criados exclusivamente por esses algoritmos, alguns indivíduos suscitam o uso de ferramentas de detecção que estão surgindo, havendo até mesmo a própria OpenAi disponibilizada uma. Ocorre que recentes artigos demonstram que essas ferramentas são extremamente falhas quando os parâmetros utilizados para geração são complexos ou palavras são modificadas, como recente um artigo publicado por pesquisadores da Universidade de Maryland, que demonstrou taxas de acerto de 57% em alguns casos12. Recentemente, uma dessas ferramentas identificou falsamente um texto como gerado pelo ChatGPT na Universidade da Califórnia, quase levando um aluno a ser reprovado por plágio13. Com a falta de ferramentas que efetivamente conseguem comprovar, com alto grau de precisão, se um texto foi gerado por inteligência artificial, uma proibição talvez seja impossível de ser efetivada na prática.
Portanto, uma análise sobre a proibição ou não dessas tecnologias deve necessariamente passar por mecanismos de mitigação desses riscos a fim de serem adotadas medidas intermediárias que busquem o equilíbrio entre benefícios e danos causados pelos riscos. Dentre esses mecanismos, enxergamos a transparência e a reconceitualização das garantias processuais como pilares essenciais para essa nova realidade.
Nota: o presente artigo, por exemplo, passou por uma revisão gramatical realizada pelo ChatGPT. Ele não participou da etapa da geração do conteúdo, mas na etapa da correção.
__________
1 CNJ avalia se deve proibir juízes de usar ChatGPT para fundamentar decisões. Acesso em 27 de abril de 2023.
2 Disponível aqui. Acesso em: 27 de abril de 2023.
3 BRIGIDO, Carolina. Ministério Público vai definir limites do uso do ChatGPT em processos. UOL Notícias. 29 de abril de 2023. Disponível aqui. Acesso em 30 de abril de 2023.
4 A autora deste artigo participou de audiência pública no Senado Federal brasileiro sobre o tema. As atas do trabalho da Comissão de Juristas do Senado Federal responsáveis pela elaboração do substitutivo podem ser encontradas no site oficial da Casa Legislativa. Disponível aqui. Acesso em 27 de abril de 2023.
5 O documento é denominado de "Blueprint for IA Bill of Rights". Disponível aqui. Acesso em 27 de abril de 2023
6 A iniciativa "DIGICHINA" da Universidade de Standford disponibilizou tradução para inglês do texto proposto. Disponível aqui . Acesso em 27 de abril de 2023
7 JUNQUILHO, Tainá Aguiar. Inteligência Artificial no Direito: Limites Éticos. São Paulo: Editora JusPodivm, 2022, p. 83-84.
8 "Os dados de identidade de juízes e membros do secretariado não podem ser reutilizados com o objetivo ou efeito de avaliar, analisar, comparar ou prever suas práticas profissionais reais ou supostas. A violação desta proibição é punível com as penalidades previstas nos artigos 226-18, 226-24 e 226-31 do Código Penal, sem prejuízo das medidas e sanções previstas pela Lei nº 78-17 de 6 de janeiro de 1978 relativa à informática, arquivos e liberdades" (Tradução livre). Disponível aqui.
9 Essa diferença de modelos racionais diferentes se deve às diferenças da lógica da tipografia, que até então pautou o Direito e a linguagem, e a lógica do digital, que pauta os algoritmos numéricos baseados em probabilidades. Cf: CAMPOS, Ricardo. Metamorfoses do Direito Global: sobre a interação entre direito, tempo e tecnologia. São Paulo: Editora Contracorrente, 2022, p. 320.
10 Disponível aqui . Acesso em 28 de abril de 2023.
11 HEIKKILÄ, Melissa. Generative AI risks concentrating Big Tech's power. Here's how to stop it. MIT Technology Review. 18 de Abril de 2023. Disponível aqui. Acesso em 28 de abril de 2023.
12 SADASIVAN, Vinu Sankar et al. Can AI-Generated Text be Reliably Detected?. arXiv preprint arXiv:2303.11156, 2023. Disponível aqui. Acesso em 28 de abril de 2023.
13 O caso ganhou os portais de notícias ao demonstrar que o falso positivo dessas ferramentas pode trazer inúmeros danos até para aqueles que sequer utilizam as novas tecnologias. Disponível aqui. Acesso em 28 de abril de 2023.