Em 2018, o ex-advogado e ex-assessor de Donald Trump, Michael Cohen, foi condenado a 3 anos de prisão após confessar ser culpado por prestar falso testemunho ao Congresso dos EUA e de violar as leis de financiamento de campanha durante o processo eleitoral de 2016, no qual Trump fora eleito. Cohen também confessou ter participado na compra do silêncio de duas mulheres que, supostamente, tiveram relações com Trump, o escândalo envolvia a atriz pornô Stormy Daniels e a ex modelo da revista adulta “Playboy”, Karen McDougal, após uma investigação do FBI que encontrou gravações entre Cohen e Trump comentando da compra do silêncio das moças. Cohen começou a cumprir sua condenação ainda em 2018 e, em julho de 2020, a justiça dos EUA decidiu soltá-lo em liberdade condicional, após um pedido de seu advogado, David Schwartz.
Passaram-se os anos e a pandemia e, em novembro de 2022, o ChatGPT, da OpenAI foi lançado; em julho de 2023, a Google lançou o Bard (agora chamado Gemini), uma IA generativa concorrente ao ChatGPT, gerando uma grande revolução e debates sobre seus impactos, modos de usar, seus riscos, devido às possibilidades textuais e visuais de uma IA generativa e, também, seus benefícios - nesses debates também se incluiu o mundo jurídico, por óbvio; uma ferramenta que cria textos através de LLM, no caso do GPT, ou LaMDA, no caso do Gemini, em que se calcula a probabilidade da próxima palavra a ser escrita, simulando a linguagem natural humana, logo seria implementada no mundo jurídico. E assim foi.
Mas qual a ligação entre IA generativa com o caso Cohen? Bem, em 2023, Michael Cohen enviou a seu advogado, David Schwartz, um documento detalhando 3 casos jurisprudenciais semelhantes ao seu para que ele criasse uma peça a ser apresentada ao juiz federal Jesse M. Furman, solicitando o fim antecipado da supervisão judicial para seu caso, pois Cohen já havia cumprido todos os pressupostos e condições de sua condenação. Assim Schwartz fez, entretanto, o juiz Furman, em 12 de dezembro de 2023, determinou que Schwartz esclarecesse e desse uma explicação detalhada sobre os 3 casos presentes em seu pedido, pois eles não existiam, e qual papel Cohen desempenhou naquela demanda. Michael Cohen admitiu que utilizou o Bard (hoje Gemini), alegando que acreditava que a IA era um super buscador do Google, e enviou os casos a seu advogado David Schwartz. Ambos, Cohen e Schwartz, alegaram na corte que não revisaram os casos citados anteriormente1.
Isso não é apenas um caso isolado nos EUA, como demonstra o The New York Times2, dezenas de casos semelhantes de mau uso da tecnologia por atores do sistema judiciário estão se tornando corriqueiros. Outro caso interessante ocorreu em 2023, quando o juiz distrital de Manhattan P Kevin Castel, multou os advogados Steven Schwartz, Peter LoDuca e seu escritório de advocacia Levidow, Levidow & Oberman em U$ 5.0003, porque eles submeteram um pedido judicial com 6 citações de jurisprudência completamente falsas, criadas pelo ChatGPT. O advogado Steven Schawtz admitiu o uso da IA; o juiz Castel, em sua fundamentação à aplicação da multa, alegou que os advogados se abdicaram de suas responsabilidades como advogados quando submeteram os casos falsos a aquele tribunal.
No Brasil, como o Migalhas4 já demonstrou, um juiz do TRF da 1ª Região utilizou o ChatGPT numa sentença, mas a IA também gerou casos fictícios de julgados do STJ como fundamentação - o juiz alegou que fora um servidor que criou a peça e ele apenas a assinou. Num outro caso de uso de IA, também divulgado por este Migalhas5, fora protagonizado por um advogado que utilizou o ChatGPT numa peça em que pretendia ingressar numa AIJE como amicus curiae, no TSE, contra o ex-presidente Jair Bolsonaro. O corregedor-geral da Justiça Eleitoral à época, Benedito Gonçalves, além de indeferir o pleito, determinou o desentranhamento da petição e ainda aplicou uma multa por litigância de má-fé no valor de R$ 2.604.
Inteligência Artificial Generativa Alucina
É comum o uso de conceitos biológicos no campo da tecnologia de IAs: redes neurais, “aprendizado” de máquina e, claro, alucinações, por exemplo. Os exemplos que citamos acima, da criação de jurisprudências falsas por IAs generativas como o Gemini e o ChatGPT, são alucinações dessas tecnologias. Diogo Cortiz6 afirma que alucinação ocorre quando a IA gera uma “resposta confiante, mas sem qualquer justificativa nos dados de treinamentos”. A resposta de uma IA de linguagem natural é preditiva, ou seja, ela sempre analisa a probabilidade de encaixar a próxima palavra numa sentença de uma forma que a linguagem pareça humana.
Uma IA como o ChaGPT, por exemplo, foi treinada com centenas de milhares de textos - e, tanto sua versão gratuita, o GPT 3.5, quanto a paga, o GPT 4, foram treinados numa base de 175 Bilhões de parâmetros - parâmetros são os valores das variáveis que influenciam o algoritmo a criar ou alterar seu comportamento no resultado pedido, quanto maior este número, maior a capacidade de aprendizado e o processamento dessas informações. Mas, há um cuidado importante que os usuários deste tipo de tecnologia precisam ter atenção: IAs generativas que utilizam o Large Languagem Model (LLM) ou o Language Model for Dialogue Applications (LaMDA), não entendem a realidade - é impossível para essas IAs entenderem o que estão escrevendo, as frases, por mais naturais que pareçam, são apenas modelos matemáticos. Vamos explicar melhor.
Diogo Cortiz diz que um modelo de LLM, por exemplo, (pode ser o LaMDA), não entende o sentido das palavras, nem as frases que produz. Por exemplo - o ChatGPT tem em sua base de dados as palavras TSE, AIJE, tem também as palavras amicus curiae, dignidade da pessoa humana, acesso à justiça e etc - ele sabe que essas palavras são representações matemáticas que estão próximas de outras representações matemáticas, como “Direito”, “Justiça”, “Tribunal Superior”, por exemplo; então, como é um modelo de linguagem preditivo, o ChaTGPT calcula a probabilidade de encaixar palavras relacionadas a essas duas representações matemáticas uma após a outra. É por isso que IAs de processamento de linguagem natural não são repositório de conhecimento ou de dados - são criadores de textos.
Vale ressaltar que a versão paga do ChatGPT, o GPT 4, possui uma vasta biblioteca que utiliza o modelo GPT para diversas áreas, inclusive a acadêmica, onde ele pode anexar links de artigos sobre o tema proposto pelo usuário - entretanto, vale ressaltar que a responsabilidade da verificação das informações propostas pela IA sempre serão do usuário - exatamente porque a tecnologia pode alucinar - o que é diferente de quando o modelo de linguagem gera uma resposta com viés preconceituoso, estigmatizando minorias, por exemplo, pois, assim, a responsabilidade passa a ser da tecnologia (da OpenAI, no caso do ChatGPT e da Google, no caso do Gemini).
Um estudo realizado por pesquisadores da Universidade de Washington7 e publicado na Cornell University em 2023, constataram que, quando o GPT ou GPT-4 geram uma alucinação e são solicitados pelos usuários a justificá-las, acabam criando mais alucinações, gerando um efeito cascata. No entanto, se o usuário iniciar uma nova conversa e questionar a IA sobre a veracidade de uma informação previamente fornecida, o GPT 3.5 e o GPT 4 são capazes de reconhecer seus próprios erros em 67% e 87% dos casos, respectivamente.
A responsabilidade em usar o ChatGPT ou Gemini no cotidiano jurídico
Precisamos insistir num assunto: a IA não é a vilã nesses casos que citamos acima, os usos incorretos desses modelos de linguagem podem ser pela falta de educação digital de grande parte da sociedade - o que inclui também a sociedade jurídica - sobre como o ChatGPT e o Gemini atuam criando os textos a partir dos prompts - por isso acreditamos que este artigo possui relevância ao contexto jurídico, mas ressaltamos que a responsabilidade por seu mau uso é do usuário, seja quem for, membros da OAB, da Defensoria Pública, do Ministério Público ou do Judiciário. Observem, tanto a OpenAI quanto a Google advertem aos usuários que seus modelos de linguagem podem fornecer informações inconsistentes e, por isso, necessitam de checagem. Mas, quando utilizada no mundo jurídico, o impacto dessas alucinações podem ser muito ruins.
Por exemplo, um advogado representando uma causa legítima ingressa na justiça com várias jurisprudências e literatura jurídica criadas a partir de alucinações de IA, pode ser punido com litigância de má-fé, como vimos anteriormente, e a demanda do cidadão não será atendida? Um juiz que utiliza jurisprudências também criadas por alucinações - qual punição receberá? Ainda não vimos se esse tipo de ação irá ocorrer, pois o caso está sob análise do CNJ, mas a sentença ou decisão pode ser facilmente reformada, visto que parte da fundamentação não existe no mundo material.
IA generativa de processamento de linguagem natural pode trazer grandes benefícios no cotidiano jurídico - a revisão gramatical de peças jurídicas, garantindo fluidez e coerência nos textos é só um exemplo do bom uso das IAs. A tecnologia não é assessor jurídico, porque não possui conhecimento, como já abordamos acima, entretanto, ela pode ajudar em trabalhos massificados - a utilização de modelos de petições e peças jurídicas já é utilizada tanto pela Advocacia, pelo Ministério público e pelo Judiciário de forma rotineira - facilitada pela digitalização - mas, pensemos, não seria coerente utilizar qualquer modelo, ou até mesmo não trocar a fundamentação dos modelos ao caso fático? Todos em suas práticas jurídicas já realizam este cuidado, por que não verificar a autenticidade das informações colhidas de IA quando as utilizarem?
O uso de IAs generativas de processamento de linguagem natural já está sendo pensado para ajudar em tarefas administrativas de Tribunais, como no TJMG. Mas, diante da expansão do uso de IAs generativas pelo judiciário, ficam as reflexões, sobretudo na área da filosofia do Direito: pode um ChatGPT julgar? Ora, quem realizaria o accountability hermenêutico? Quem seria, na verdade, o sujeito da frase de Carl Schmitt8 (gênio, apesar de ligar-se ao autoritarismo): “Cæsar dominus et supra grammaticam: César também é senhor da gramática” - uma IA que não entende o que escreve não poderia julgar um caso, portanto, ora, o algoritmo não conseguiria responder com precisão quais os critérios utilizados para a decisão sem alucinar. A comissão de ética da OAB, a corregedoria do MP, a corregedoria do Judiciário vão agir como em relação aos “profissionais” que se abstém de estudar o caso e se utilizam da tecnologia para fazer um trabalho intelectual que é somente seu (ou deveria ser)? Não podemos cair no paradoxo pós-moderno: quanto mais informação, mais néscios.
___________
1 Disponível aqui.