Advogada alerta para uso de informações falsas geradas pelo ChatGPT
Ana Paula, do escritório Silveiro Advogados, afirma que ressalta do ChatGPT por advogados exige checagem minuciosa.
Da Redação
terça-feira, 13 de junho de 2023
Atualizado às 16:06
O ChatGPT fornece informações falsas. Por isso, advogados que utilizam essa ferramenta têm o dever não só ético, mas também legal, de checar as informações geradas pela Inteligência Artificial. A opinião é da advogada Ana Paula Ávila, doutora pela UFRGS e vice-presidente da Comissão Especial de Proteção de Dados e Privacidade da OAB/RS.
"O ChatGPT escreve respostas que soam muito certeiras, mas que podem ser totalmente incorretas. Por isso, é necessário fazer dupla verificação em fontes autênticas sempre que os dados obtidos venham a compor entregas relevantes executadas pelos advogados, do contrário, teremos outra forma de 'IA': a Ignorância Autêntica", afirma Ana Paula, que também é sócia coordenadora da área de Compliance do escritório Silveiro Advogados.
Nas últimas semanas, a mídia internacional divulgou o caso do advogado Steven A. Schwartz, que processou a Avianca por um acidente em um voo para Nova York - o profissional utilizou o ChatGPT no preparo do processo judicial. O problema foi que o software de IA inventou diversos precedentes e o advogado usou essas informações falsas para compor suas peças.
Para a especialista, para evitar que isso aconteça, deve-se fazer um uso consciente da ferramenta, atentando às limitações presentes na própria declaração da OpenAI em seu website, onde se alerta: "às vezes, o chat escreve respostas que soam muito plausíveis, mas que são incorretas ou não fazem sentido".
Após ser repreendido pelo juiz, Schwartz alegou que utilizou o ChatGPT para inteirar o documento e só descobriu que a tecnologia forneceu casos inexistentes depois de todo o ocorrido. Além disso, disse que não tinha conhecimento da possibilidade de que o material pudesse ser falso.
Tratando-se de um caso sem precedentes, uma audiência para analisar a imposição de sanções ocorreu no último dia 8 de junho, ocasião em que o advogado apresentou ao juízo uma declaração juramentada admitindo que utilizou a ferramenta de IA, mas afirmando que não teve a intenção de enganar o tribunal e não agiu de má-fé; alegou que qualquer sanção judicial seria desnecessária, tendo em vista o escrutínio social e dano reputacional que já sofrera pela enorme repercussão pública gerada pelo caso.
Segundo a equipe do advogado, "O Sr. Schwartz e o escritório já se tornaram os exemplos dos perigos de se aventurar com novas tecnologias; a lição deles foi aprendida."
O caso está concluso para decisão do magistrado. Após a situação de Schwartz ganhar destaque nos noticiários, um juiz do Texas emitiu ordem determinando que qualquer pessoa que compareça perante aquele tribunal deverá declarar que nenhum fragmento de petição foi elaborado por inteligência artificial generativa ou apresentar em destaque qualquer parte da petição que tenha sido redigida por IA, para que possa ter sua acurácia verificada.
Ainda de acordo com o juiz, a ordem registra que, embora essas "plataformas sejam incrivelmente poderosas e tenham muitos usos na área jurídica", as petições não são um deles, uma vez que as plataformas são "propensas a alucinações e tendenciosidades" em seus estados atuais.
E se fosse no Brasil?
Segundo Ana Paula, se o caso da Avianca ocorresse no Brasil, seria possível a censura judicial, tal como foi noticiado em abril, quando o TSE aplicou multa por litigância de má-fé a um advogado que ajuizou petição despropositada e inadequada, baseada em conversa com o ChatGPT. "A sanção por litigância de má-fé, segundo o art. 80 do Código de Processo Civil, tem lugar sempre que o litigante alterar a verdade dos fatos ou proceder de modo temerário em qualquer incidente ou ato do processo", explica.
"Em tese, as informações falsas que tenham sido obtidas via IA que sejam levadas pelo advogado ao juízo poderiam configurar a má-fé se o uso foi consciente, ou simples erro profissional, o qual também é censurável ainda que não seja deliberado. Não podemos esquecer que a via inversa também é possível, à medida que, eventualmente, magistrados possam empregar a ferramenta para fundamentar suas decisões - nesse caso, deve-se analisar a possibilidade de correição parcial na ausência de recurso próprio, sem prejuízo do Tribunal aplicar medidas disciplinares ao magistrado", afirma Ana Paula.
"Ainda em tese, o impacto desse tipo de erro no resultado da lide poderia também suscitar as normas do Código Civil. Há normas que possibilitam a reparação de danos causados por erro profissional, inclusive para a reparação de danos provocados pela perda de uma chance; então, hipoteticamente, um caso como este poderia terminar em responsabilização civil, dependendo do rumo que a lide tomar", afirma a advogada. "O ressarcimento da parte condenada ao pagamento de multa imposta por litigância de má-fé no exemplo que estamos tratando de erro profissional, certamente seria viável".
De acordo com a advogada, se utilizada da maneira correta, a ferramenta pode ser muito útil para a rápida e eficiente geração de informações de apoio à elaboração de um processo, desde que se siga o princípio da dupla verificação em fontes autênticas, além de outras cautelas relacionadas à confidencialidade das informações. "Não podemos esquecer, ainda, que o advogado não deve inserir no ChatGPT, por meio dos prompts, informações protegidas por sigilo profissional, nem mesmo dados pessoais de clientes ou terceiros", diz.