Migalhas de Peso

Mal uso da inteligência artificial pode comprometer escritórios de advocacia

Inteligência artificial traz diversos benefícios, mas o uso inadequado pode prejudicar escritórios e acarretar sérias consequências legais.

24/10/2024

Desde a ascensão do ChatGPT, desenvolvido pela OpenAI e lançado em novembro de 2022, a inteligência artificial tem transformado muitos setores profissionais. 

A facilidade e a agilidade proporcionadas por essa ferramenta impactaram significativamente a rotina de produtores de conteúdo, desenvolvedores de software, analistas de marketing e, também, os advogados. 

No entanto, ao mesmo tempo que a IA trouxe benefícios, também evidenciou riscos sérios, especialmente nos contextos de práticas jurídicas.

Uso irresponsável do ChatGPT no Direito

O ChatGPT ganhou rapidamente a atenção do mundo, recebendo mais de 100 milhões de visitas mensais e se posicionando entre os 20 sites mais visitados mundialmente, de acordo com a Similarweb. 

Entre os advogados, as funcionalidades oferecidas pela inteligência artificial parecem incríveis: a geração de contratos, revisão de documentos, pesquisa de jurisprudência e elaboração de pareceres tornaram-se rotinas cada vez mais rápidas.

Esses avanços tecnológicos parecem sugerir um caminho natural de evolução para o setor, que ainda é conhecido por suas operações demoradas e formalismos. Entretanto, quando se analisa mais de perto o impacto dessa ferramenta em práticas essenciais à advocacia, percebe-se que há uma linha tênue entre a conveniência e o perigo.

O caso do jurista Steven A. Schwartz, nos EUA, é um exemplo claro das consequências negativas do uso irresponsável da IA. Em maio de 2023, Schwartz utilizou o ChatGPT para fazer uma pesquisa jurídica e acabou apresentando ao tribunal referências falsas. Como resultado, foi multado em US$5 mil (cerca de R$24 mil) por litigância de má-fé.

O erro de Schwartz revela um dos principais problemas do uso da IA no Direito: A falta de transparência e a vulnerabilidade a dados incorretos. Muitas vezes, os defensores podem cair na tentação de confiar cegamente nos resultados gerados pela inteligência artificial, esquecendo que a responsabilidade pela precisão das informações apresentadas é, em última instância, do humano, e não da máquina.

Principais problemas do mau uso da inteligência artificial na advocacia

A implementação do sistema inteligente na advocacia está crescendo de forma exponencial, prometendo uma série de benefícios, como maior eficiência e rapidez na condução de processos e tarefas repetitivas. 

No entanto, o uso inadequado dessa inovação pode trazer sérios prejuízos aos especialistas, impactando negativamente a credibilidade dos clientes, a integridade profissional e o cumprimento das leis. Alguns desses problemas, são:

Falta de transparência

Um dos desafios da IA é a falta de transparência, especialmente em modelos de aprendizado, como o ChatGPT. Esses sistemas são frequentemente tratados como “caixas-pretas”, onde a etapa de tomada de decisão é complexa e difícil de entender. 

O jurista precisa ser capaz de justificar suas ações e escolhas, seja para um contratante ou para um tribunal. A opacidade dos modelos de inteligência artificial pode impedir que essa argumentação seja fornecida adequadamente, minando a confiança dos clientes e do público na atuação ética dos escritórios jurídicos.

Preconceito e discriminação

Os sistemas inteligentes são treinados a partir de grandes conjuntos de dados, que incluem muitas vezes informações preconceituosas ou enviesadas. Caso o defensor confie cegamente em uma ferramenta que reproduz esses vieses, ele pode acabar cometendo erros que afetam negativamente os direitos dos cidadãos, amplificando desigualdades e estigmas sociais.

Esse risco reforça a importância de se investir em algoritmos mais imparciais e em registros de treinamento diversificados. No entanto, é uma tarefa que exige tempo e recursos, algo que muitas empresas jurídicas podem não ter à disposição.

Preocupações com a privacidade e LGPD

Para funcionarem de forma eficiente, a tecnologia precisa de dados em grande escala, o que levanta preocupações legítimas sobre a privacidade e segurança. A LGPD - Lei Geral de Proteção de Dados impõe uma série de responsabilidades a qualquer organização que colete e processe fatos pessoais no Brasil. 

A aplicação da IA nos escritórios deve ser sempre vista sob a luz dessas regulamentações. Quando a ferramenta acessa ou analisa informações dos consumidores, há a necessidade de garantir que elas estão sendo tratadas de forma segura e conforme as exigências legais.

Além das implicações judiciais, a violação de privacidade pode comprometer a relação entre o cliente e o advogado, que deve assegurar confidencialidade e discrição absoluta. Assim, os negócios legais que desejam usar a inovação devem ter um cuidado redobrado na escolha dos sistemas e na proteção dos conteúdos envolvidos.

Dilemas éticos

A inteligência artificial é desprovida de valores éticos ou morais inerentes. Portanto, se não forem devidamente programados e supervisionados, esses sistemas podem tomar determinações questionáveis ou impróprias. 

No contexto legal, onde as escolhas afetam a vida das pessoas, o princípio é um componente inegociável. A delegação dessas decisões a uma máquina, sem um controle de moralidade rígido, pode resultar em danos significativos tanto para os clientes quanto para a reputação do escritório.

Uso ético de IA na advocacia: Transparência e responsabilidade

A transparência é uma das bases fundamentais da advocacia. É por meio dela que se constrói a lealdade do público e se assegura a conformidade com a lei. A utilização da inteligência artificial não deve, sob hipótese alguma, ser um atalho que prejudique essa honestidade. O jurista que usa ferramentas deve ser capaz de explicar a lógica por trás dos materiais apresentadas e dos conselhos dados.

Além disso, o profissional deve ser claro com seus contatantes sobre a aplicação dessas tecnologias e os limites que elas possuem. Clareza significa não apenas dizer que o sistema foi utilizado, mas também relatar das vulnerabilidades associadas, dos conteúdos que foram usados e da revisão pessoal feita posteriormente.

O ChatGPT, sendo uma das ferramentas mais utilizadas atualmente, deve ser empregado da forma correta, com foco principalmente nas questões éticas. Ele deve ser visto como um complemento ao trabalho do advogado, e não como um substituto.

A ferramenta pode ser utilizada para auxiliar na criação de petições, elaboração de pareceres, desenvolvimento de agentes jurídicos e modelos de documentos, entre outras tarefas que otimizam o tempo e a produtividade do escritório. No entanto, é essencial que tudo o que for gerado pela IA passe por uma revisão humana criteriosa para garantir que os dados estejam corretos, atualizados e sigam as nuances necessárias de cada caso específico.

Um software jurídico está comprometido com a promoção da transparência no uso de inteligência artificial. Com recursos que facilitam a comunicação clara e objetiva entre advogados e clientes, a plataforma certifica que todos os processos sejam documentados e acessíveis, proporcionando uma experiência eficiente e segura. 

As suas funcionalidades são projetadas para assegurar que o manuseio da computação cognitiva seja sempre acompanhado da devida supervisão humana, garantindo que as informações fornecidas sejam precisas e que os riscos sejam devidamente comunicados aos contratantes, contribuindo para a construção de um ambiente normativo onde a confiança e a conformidade com a lei são reforçadas a cada interação.

Uso consciente da inteligência artificial

A inteligência artificial possui um potencial transformador inegável para o Direito, oferecendo eficiência e novas formas de conduzir as tarefas diárias. 

No entanto, seu aproveitamento inadequado pode trazer sérios prejuízos não apenas para os consumidores, mas também a reputação do próprio escritório.

É importante que os advogados vejam a inovação como um recurso de apoio e não como um substituto. A revisão humana, o pensamento crítico e a responsabilidade são elementos que a tecnologia ainda não pode substituir. 

A advocacia deve ser uma prática baseada em segurança, ética e transparência – pilares que, se enfraquecidos pelo mau uso de dispositivos, podem comprometer toda a essência da profissão.

Assim, os escritórios devem adotar uma abordagem cautelosa e bem informada ao incorporar a IA em seus processos, assegurando que os benefícios não venham à custa de sua integridade e dos direitos dos clientes.

Eduardo Koetz
Eduardo Koetz é advogado, sócio-fundador da Koetz Advocacia e CEO do software jurídico ADVBOX . Especialista em tecnologia e gestão, ele também se destaca como palestrante em eventos jurídicos.

Veja mais no portal
cadastre-se, comente, saiba mais

Artigos Mais Lidos

Afinal, quando serão pagos os precatórios Federais em 2025?

19/12/2024

Atualização do Código Civil e as regras de correção monetária e juros para inadimplência

19/12/2024

5 perguntas e respostas sobre as férias coletivas

19/12/2024

A política de concessão de veículos a funcionários e a tributação previdenciária

19/12/2024

Julgamento do Tema repetitivo 1.101/STJ: Responsabilidade dos bancos na indicação do termo final dos juros remuneratórios

19/12/2024