COLUNAS

  1. Home >
  2. Colunas >
  3. Notas contemporâneas com Murillo de Aragão >
  4. Justiça e direito em tempos de inteligência artificial

Justiça e direito em tempos de inteligência artificial

sexta-feira, 23 de junho de 2023

Atualizado às 07:52

A partir de estudos realizados por uma comissão de juristas liderada pelo ministro do Superior Tribunal de Justiça (STJ) Ricardo Villas Bôas Cueva, cuja relatora foi a jurista Laura Schertel Ferreira Mendes, o senador Rodrigo Pacheco, presidente do Senado Federal, apresentou projeto de lei sobre a aplicação da inteligência artificial (IA) no Brasil. Segundo a relatora, o texto aprovado se baseia em três pilares centrais:

  • Garantia dos direitos das pessoas afetadas pelo sistema;
  • Gradação do nível de riscos; 
  • Previsão de medidas de governança aplicadas a empresas que forneçam ou operem o sistema de IA.

A iniciativa do Congresso Nacional de debater o tema vem em bom tempo. E é apenas o início de um longo debate que envolverá estudos adicionais acerca das consequências e dos impactos da IA na sociedade.

Como se sabe, a IA já está impactando os processos produtivos, a logística, os tratamentos de saúde e até mesmo a produção cultural. Recentemente, para espanto de todos, uma série de canções ao estilo da banda de pop-rock inglesa Oasis foram elaboradas com recursos de IA. Romances já estão sendo escritos com o uso do recurso, bem como petições e até sentenças no mundo jurídico.

Pouco a pouco, começam a aparecer leis que tratam dos impactos da IA. Nos Estados Unidos já existe um dispositivo que proíbe práticas desleais ou enganosas no comércio aplicadas por IA em publicidade e marketing. Também existem regras que tratam da IA em questões que envolvem saúde pública, entre outras áreas. O mesmo se dá na Europa e na Ásia.

Em fevereiro deste ano, o juiz Juan Manuel Padilla, na Colômbia, deu uma sentença usando o ChatGPT sobre o pleito de uma criança autista e consultas médicas. Em abril, o Conselho Nacional de Justiça do Brasil começou a avaliar a necessidade de proibir juízes brasileiros de usar a tecnologia de IA para proferir ou fundamentar sentenças.

Por ocasião do XI Fórum Jurídico de Lisboa, uma iniciativa do Instituto Brasileiro de Ensino, Desenvolvimento e Pesquisa (IDP), ao final de junho de 2023, farei palestra sobre o direito, a justiça e o impacto das decisões automatizadas pela IA. Parte do que desenvolverei na palestra decorre de reflexões que antecipo aqui, neste artigo, para a minha coluna no Migalhas.

Ao ser desafiado a tratar do tema, resolvi perguntar ao ChatGPT sobre o impacto da IA nas decisões judiciais e sobre como a IA trataria do tema. Queria saber como o ChatGPT se posicionaria sobre as consequências de suas intervenções no âmbito judicial. Considerei que seria um bom início de discussão provocar o tema com o recurso que hoje tem maior representatividade no universo da IA.

As respostas não surpreenderam. Foram, de certa forma, óbvias. Nem por isso desinteressantes. Pelo contrário, os riscos apontados pelo ChatGPT são sérios e devem ser cuidadosamente considerados. São eles: risco de discriminação (vieses discriminatórios); falta de transparência no sentido de as decisões não serem explicadas claramente; ausência de responsabilidade no sentido de se identificar o responsável pela decisão; ameaças à segurança e à privacidade pelo uso de dados de pessoas não envolvidas com a decisão; e, sobretudo, ausência de supervisão humana, o que, no final das contas, pode levar à perda de controle do processo.

Depois de perguntar sobre os riscos, perguntei pelas soluções para os problemas encontrados. As respostas foram as seguintes: treinamento dos algoritmos; avaliação da existência de vieses algorítmicos; explicações claras sobre as decisões apresentadas; monitoramento e auditoria contínuos; ética e governança como princípios sólidos; e, por fim, supervisão humana.

Duas questões despertaram a minha atenção, em especial. A primeira é que as respostas do ChatGPT foram consistentes, ainda que, dada a complexidade do tema, possam ser incompletas. A segunda questão - mais importante - foi a de que, afinal, o ChatGPT propõe, como solução para minimizar os riscos das decisões automatizadas, a supervisão humana.

Considerando a possibilidade de uso de IA em decisões judiciais devemos refletir sobre o seguinte: 

A IA será usada para auxiliar os juízes e advogados na redação de petições e sentenças, como já está acontecendo. Mesmo que exista uma proibição expressa do uso da IA por juízes, a coleta de informações e opiniões de recursos como o ChatGPT irão ocorrer de forma inevitável.  Assim, é certo considerar que as decisões de ora em diante serão influenciadas pela IA.

No entanto, a IA poderá auxiliar, mas nunca, a curto prazo, substituir a decisão humana final, pelo fato de a emoção e o sentimento ainda não poderem ser enviados de forma precisa. As decisões judiciais têm nuances que ainda não podem ser captados pelos algoritmos. Pois nem um bilhão nem 20 bilhões de algoritmos conseguem reproduzir as emoções e os sentimentos dos seres humanos. Além do mais, os juízes, os advogados e os réus são produtos das circunstâncias. Será que a IA poderá emular as circunstâncias que envolvem uma decisão?

As minhas cinco reflexões são uma amostra do que devemos considerar sobre o impacto da IA sobre o direito e a justiça. Devemos considerar, ainda, que o uso da IA não será imediato no mundo jurídico. Começará, de fato, como um instrumento que auxilia as pesquisas e a redação de petições e decisões. Assim como o Google, que há tempos termina auxiliando a busca por informações.

Ainda estamos distantes da situação em que a IA julgará um caso de forma clara e autônoma. Uma justiça sem os seres humanos somente existirá em um universo distópico controlado por máquinas. Onde vejo um papel relevante para a IA é, por exemplo, na redução da burocracia da prestação do serviço jurisdicional, no andamento do processo e na identificação rápida de casos semelhantes. Mas, para minimizar os riscos, como bem disse o ChatGPT, tudo deve ocorrer sob a supervisão humana. 

Vale destacar que o PL 2338, de 2023, mencionado no inicio do texto e   ora em tramitação no Senado federal, prevê, em seu artigo 10, que "Quando a decisão, previsão ou recomendação de sistema de inteligência artificial produzir efeitos jurídicos relevantes ou que impactem de maneira significativa os interesses da pessoa, inclusive por meio da geração de perfis e da realização de inferências, esta poderá solicitar a intervenção ou revisão humana".