Direito Privado no Common Law

Robôs judiciais e o Direito Algorítmico: Algumas reflexões a partir da experiência da common law

Robôs judiciais e o Direito Algorítmico: Algumas reflexões a partir da experiência da common law

9/11/2020

1.  Introdução

Na última coluna apresentada nesse espaço no dia 26/10/20 pelo nosso colega Daniel Dias, foi tratado o instigante tema do “Seguro Obrigatório de Responsabilidade Civil e Inteligência Artificial na Common Law”. Coincidentemente, tinha acabado de lançar um artigo intitulado Paths to Digital Justice: Judicial Robots, Algorithmic Decision-Making, and Due Process no periódico Asian Journal of Law and Society (AJLS) publicado pela Cambridge University Press.1 Considerando a afinidade entre os dois temas, resolvi aproveitar essa coluna para explorar o tema dos robôs judiciais e do direito algorítmico com a discussão de algumas reflexões a partir da experiência da Common Law.

2. O ponto de partida: Como algoritmos podem apoiar decisões jurídicas?

 Em primeiro lugar, é importante registrar que o artigo foi escrito a partir de uma apresentação feita na Conferência do Research Committee of Sociology of Law em Oñati em 2019, a partir de um convite formulado pelos Professores Hakan Hydén e Ji Weidong, que também fizeram o convite para submeter o artigo para publicação em uma edição especial temática do AJLS. O ponto de partida para a nossa reflexão é a questão sobre como algoritmos podem apoiar decisões jurídicas e, eventualmente, se decisões algorítmicas podem substituir decisões judiciais.2 Em última instância, o artigo discute a possibilidade de que existam robôs judiciais como substitutos dos magistrados humanos.3 Se até bem pouco tempo atrás o tema seria considerado como material para roteiros de filmes e seriados de ficção científica como Perdidos no Espaço e Star Trek por exemplo,4 o fato é que atualmente os Tribunais Superiores no Brasil já contam com o apoio de ferramentas avançadas de tecnologia da informação para realizar a triagem dos novos processos distribuídos, elaborando a classificação dos casos através de processamento de linguagem natural e identificando se se tratam de demandas repetitivas que eventualmente podem ser submetidas a tratamento uniforme no âmbito do STF5 e do STJ6.

Além dessas ferramentas de processamento natural de linguagem (natural language processing), existem também projetos de tecnologia da informação de produção customizada em linha de montagem (Document Assembly Line) de documentos jurídicos, inclusive de atos processuais. Recentemente, o CNJ fomentou inclusive o uso de robôs como ferramenta de apoio para ampliar a automatização e a celeridade dos processos judiciais de execução fiscal, a partir da experiência bem sucedida de projetos-piloto no TJ/RN e no TJ/PE.7 No caso de Pernambuco, o uso de inteligência artificial foi capaz de substituir o trabalho de classificação de processos feitos por uma equipe de 11 servidores e o robô Elis conseguiu concluir o trabalho que levaria um ano e meio em quinze dias com grau de acerto de 96%.8 Não resta dúvidas de que a tecnologia de informação possui um potencial enorme de otimizar a atuação do Poder Judiciário como uma ferramenta de apoio ao processamento e como um substituto mais eficiente de tarefas repetitivas, o que já evidenciado por esses exemplos concretos. Por outro lado, atualmente, não contamos no Poder Judiciário brasileiro com ferramentas que podem substituir o julgador humano pela inteligência artificial na própria tomada da decisão de mérito em um processo judicial.9 Nesse sentido, uma nova questão deve ser enfrentada: poderiam os robôs judiciais vir a substituir os magistrados humanos?

3. Questão complexa: podem robôs judiciais substituir juízes humanos?

A questão complexa sobre se robôs judiciais podem substituir os juízes humanos deve ser enfrentada a partir do estudo de caso do Correctional Offender Management Profiling for Alternative Sanctions (COMPAS) amplamente adotado pelo Poder Judiciário nos Estados Unidos como uma ferramenta de análise de risco e de apoio para decisões judiciais em um grande volume de casos concretos.10 O algoritmo foi desenvolvido para avaliar a potencial reincidência e servir de instrumento de apoio na tomada de decisão judicial sobre a prisão ou a liberdade de um acusado no processo penal com base na tecnologia de informação.11 Como um exemplo prodigioso da chamada “virada matemática no direito” (mathematical turn in law)12, o COMPAS consiste em um indicador jurídico de probabilidade de reincidência medido através de uma escala de risco e como parte de um modelo de regressão matemática treinado para prever novas ofensas criminais a partir de uma amostra de casos concretos.13 Ao final de uma análise feita a partir de oito fatores criminológicos preditivos de crime, o algoritmo calcula um número que serve como o score decimal para cálculo do risco de reincidência.14

O uso do COMPAS foi criticado em um artigo elaborado pela ProPublica e intitulado Machine Bias, em que os autores apresentaram evidências de que o COMPAS discriminava acusados da raça negra e que gerava uma série de disparidades raciais, sendo muito pouco confiável como uma ferramenta de previsão de comportamento criminoso futuro.15 Segundo os autores, acusados da raça negra eram erroneamente considerados potenciais criminosos quase duas vezes mais do que os acusados da raça branca, ao passo que réus brancos eram equivocadamente classificados como de baixo risco mais frequentemente do que os réus negros.16 Além disso, a ProPublica criticou o fato de que a companhia responsável pelo Software não tornava aberta a fórmula matemática e os cálculos adotados para a avaliação do risco, o que impedia que o grande  público e os advogados pudessem entender as razões para tais disparidades.17

Em sua defesa, os desenvolvedores do software argumentaram que o COMPAS não é discriminatório, mas que as disparidades raciais seriam decorrentes do fato de que o algoritmo é treinado a partir de uma amostra real de casos concretos e que o problema reside na realidade que seria preconceituosa.18 Além disso, o software era uma mera ferramenta de apoio a decisões judiciais e não deveria ser analisado como se fosse capaz de fazer previsões absolutas, tal qual os oráculos mágicos do filme Minority Report.19 Segundo eles, o critério para análise do software, deveria ser sua superioridade concreta diante da alternativa do julgamento humano sem o apoio da ferramenta de análise de risco, levando-se em conta a consistência do padrão de respostas da tecnologia de informação e a eficiência no processamento de dados em grande volume e de forma mais célere.20

O caso do COMPAS é relevante para a nossa reflexão por uma série de pontos relevantes sobre os dilemas, limites e possibilidades de se considerar que robôs judiciais podem vir a substituir juízes humanos. A principal dificuldade é que talvez seja inviável para os programadores de software em reproduzir a característica da prudência, que é típica da atuação dos magistrados. Não é, aliás, por acaso que a expressão jurisprudence é sinônimo de filosofia do direito na common law e que a palavra jurisprudência se refira ao conjunto de decisões judiciais na civil law. Se robôs e inteligência artificial parecem ser excelentes em termos de celeridade e de processamento de grande volume de dados em curto espaço de tempo, por outro lado, existe uma dificuldade imensa em se treinar os robôs para terem a necessária inteligência emocional que se espera de magistrados.

Além disso, existem as dificuldades relativas ao caráter secreto do algoritmo e à necessidade de justificação das decisões judiciais que exigem dos arquitetos da inteligência artificial um esforço maior no desenvolvimento de tecnologias explicatórias para que decisões algorítmicas não tenham o caráter absolutamente opaco de uma caixa preta.21 Nesse sentido, existe a necessidade de que sejam desenvolvidas auditorias de algoritmos para a prevenção de tratamentos discriminatórios e de outras lesões aos direitos coletivos.22 Também é importante o desenvolvimento de uma ação afirmativa algorítmica, isto é, de se desenvolver uma perspectiva de treinamento dos profissionais de tecnologia da informação para que sejam sempre pautados pela ética e pela confiabilidade para que seja enfrentando de maneira consistente o risco da discriminação tecnológica. Finalmente, deve ser valorizado o aspecto humano da tomada de decisão, notadamente o caráter inovador da inteligência humana que possibilita a adoção de decisões transformadoras e diferentes dos paradigmas anteriores. Noutras palavras, por serem máquinas identificadoras de parâmetros adotados repetitivamente, os robôs judiciais podem ter uma tendência conservadora e não progressista, o que dificultaria a inovação e a originalidade nos julgamentos do poder judiciário, caso robôs substituíssem magistrados humanos.

4.    Considerações finais

O presente artigo explorou o tema da possibilidade de algoritmos apoiarem decisões jurídicas e de robôs judiciais virem a substituir magistrados humanos. Não resta dúvida de que o Poder Judiciário tem muito a ganhar através do emprego de robôs judiciais como ferramentas de apoio para dar celeridade e qualidade ao processamento de grande quantidade de dados. Por outro lado, é necessário cautela quanto à substituição de magistrados humanos por robôs judiciais. A tecnologia de informação atual não permitiria o exercício da inteligência geral típica do conhecimento humano, mas apenas da inteligência artificial específica, que é capaz de desenvolver eficientemente tarefas repetitivas com ganhos de celeridade e volume.

É possível, porém, vislumbrar a possibilidade de uso experimental de tecnologia da informação para pequenas causas que poderiam estar sujeitas a arbitramento eletrônico de decisões de pequeno valor e cujo teor seriam vinculantes apenas para a empresa que tenha proposto tal meio de solução de conflitos e não para o consumidor final. O emprego de tecnologia da informação para a solução online de conflitos (Online Dispute Resolution) nesses moldes possui potencial para eventuais testes com inteligência artificial no papel dos tomadores de decisão. Contudo, é necessário que os árbitros eletrônicos passem no teste de prudência exigida dos julgadores, além de possuírem características típicas dos magistrados como a imparcialidade e a capacidade de justificação racional de suas próprias decisões. 

____________

1 FORTES, Pedro RUBIM BORGES. "Paths to Digital Justice: Judicial Robots, Algorithmic Decision-Making, and Due Process." Asian Journal of Law and Society: 1-17.

2 Idem.

3 Idem.

4 Tais exemplos foram dados pelo Eminente Desembargador Federal, Dr. André Fontes, por ocasião de um seminário de discussão do artigo e sou imensamente grato a ele pelos comentários e pelo generoso feedback dado ao texto naquela ocasião.

5 Clique aqui

6 Automatização é saída para STJ não julgar mesma tese mil vezes, diz Noronha.

7 Clique aqui

8 Clique aqui

9 O ponto foi salientado pelo Eminente Ministro Ricardo Villas Bôas Cueva por ocasião de um seminário de discussão do artigo e sou imensamente grato por esse ponto e por todos os comentários feitos por ele como o debatedor do artigo naquele evento.

10 FORTES, Pedro RUBIM BORGES. "Paths to Digital Justice: Judicial Robots, Algorithmic Decision-Making, and Due Process." Asian Journal of Law and Society: 1-17.

11 Idem.

12 RESTREPO AMARILES, David. Legal indicators, global law and legal pluralism: an introduction. 2015; FORTES, Pedro Rubim Borges. How legal indicators influence a justice system and judicial behavior: the Brazilian National Council of Justice and ‘justice in numbers’. The Journal of Legal Pluralism and Unofficial Law, v. 47, n. 1, p. 39-55, 2015.

13 FORTES, Pedro RUBIM BORGES. "Paths to Digital Justice: Judicial Robots, Algorithmic Decision-Making, and Due Process." Asian Journal of Law and Society: 1-17.

14 Idem.

15 ANGWIN, Julia et al. Machine bias. ProPublica. See https://www. propublica. org/article/machine-bias-risk-assessments-in-criminal-sentencing, 2016.

16 Idem.

17 Idem.

18 DIETERICH, William; MENDOZA, Christina; BRENNAN, Tim. COMPAS risk scales: Demonstrating accuracy equity and predictive parity. Northpointe Inc, 2016.

19 FORTES, Pedro RUBIM BORGES. "Paths to Digital Justice: Judicial Robots, Algorithmic Decision-Making, and Due Process." Asian Journal of Law and Society: 1-17.

20 Idem.

21 PASQUALE, Frank. The black box society. Harvard University Press, 2015.

22 Confira-se FORTES, Pedro RUBIM BORGES, Responsabilidade Algorítmica do Estado. ROSENVALD Nelson e Guilherme Magalhães MARTINS. Responsabilidade Civil e Novas Tecnologias. Foco (2020).

Veja mais no portal
cadastre-se, comente, saiba mais

Coordenação

Daniel Dias, professor da FGV Direito Rio. Doutor em Direito Civil pela USP (2013-2016), com períodos de pesquisa na Ludwig-Maximilians-Universität München (LMU) e no Instituto Max-Planck de Direito Comparado e Internacional Privado, na Alemanha (2014-2015). Estágio pós-doutoral na Harvard Law School, nos EUA (2016-2017). Advogado e consultor jurídico.

Nelson Rosenvald é advogado e parecerista. Professor do corpo permanente do Doutorado e Mestrado do IDP/DF. Pós-Doutor em Direito Civil na Università Roma Tre. Pós-Doutor em Direito Societário na Universidade de Coimbra. Visiting Academic na Oxford University. Professor Visitante na Universidade Carlos III, Madrid. Doutor e Mestre em Direito Civil pela Pontifícia Universidade Católica de São Paulo – PUC/SP. Presidente do Instituto Brasileiro de Estudos de Responsabilidade Civil – IBERC. Foi Procurador de Justiça do Ministério Público de Minas Gerais.

Pedro Fortes é professor adjunto de Direito Constitucional da Universidade do Estado do Rio de Janeiro (UERJ), Professor no Programa de Pós-Graduação em Direito da Universidade Cândido Mendes (UCAM), Diretor Internacional do Instituto Brasileiro de Estudos de Responsabilidade Civil (IBERC) e Promotor de Justiça no Ministério Público do Rio de Janeiro. Graduado em Direito pela UFRJ e em Administração pela PUC-Rio, é DPHIL pela Universidade de Oxford, JSM pela Universidade de Stanford, LLM pela Universidade de Harvard e MBE pela COPPE-UFRJ. É coordenador do CRN Law and Development na LSA, do WG Law and Development no RCSL e do Exploring Legal Borderlands na SLSA. Foi Professor Visitante na National University of Juridical Sciences de Calcutá, Visiting Scholar na Universidade de Frankfurt e Pesquisador Visitante no Instituto Max Planck de Hamburgo e de Frankfurt.

Thaís G. Pascoaloto Venturi, tem estágio de pós-doutoramento na Fordham University - New York (2015). Doutora pela UFPR (2012), com estágio de doutoramento - pesquisadora Capes - na Faculdade de Direito da Universidade de Lisboa/Portugal (2009). Mestre pela UFPR (2006). Professora de Direito Civil da Universidade Tuiuti do Paraná – UTP e de cursos de pós-graduação. Associada fundadora do Instituto Brasileiro de Responsabilidade Civil – IBERC. Mediadora extrajudicial certificada pela Universidade da Califórnia - Berkeley. Mediadora judicial certificada pelo CNJ. Advogada e sócia fundadora do escritório Pascoaloto Venturi Advocacia.