PG Advogados participa de audiência pública do CNJ sobre o uso da IA
Manuela Silva, especialista em Direito Digital e DPO do escritório, destacou a importância de fortalecer a governança e auditoria, aumentar a transparência por meio de políticas de IA e capacitar profissionais.
Da Redação
terça-feira, 8 de outubro de 2024
Atualizado às 17:45
Uma pesquisa do CNJ apresentada durante audiência pública sobre o uso da IA no Judiciário, em Brasília, na última semana, revelou dados sobre a utilização dessa tecnologia no órgão. O estudo mostrou que 27% dos magistrados e 31% dos servidores já usam a IA generativa em suas atividades profissionais. Apesar desses números, a maioria dos entrevistados, mais de 70%, afirmou que utiliza essas ferramentas "raramente" ou "eventualmente". A pesquisa envolveu 1.681 magistrados e 16.844 servidores do sistema judiciário.
Durante a audiência pública, Manuela Silva, advogada especialista em Direito Digital e DPO do PG Advogados, traçou um panorama da evolução do uso da IA no Brasil desde 2020, quando o CNJ lançou as primeiras regras para regulamentar seu uso.
"Hoje, em 2024, vemos um cenário completamente diferente, com a IA generativa acessível a partir de um simples celular, como é o caso do ChatGPT, tornando o Brasil o quarto país do mundo que mais utiliza essa ferramenta, à frente de nações como Alemanha e Reino Unido", pontuou.
Em sua fala, a especialista destacou a importância de melhorias na governança e auditoria, e transparência no desenvolvimento e uso das ferramentas de IA, especialmente diante da crescente popularização dessas tecnologias.
"Não se trata de frear o avanço da tecnologia, mas sim de mitigar os riscos e prejuízos decorrentes de falhas ou alucinações da IA, que podem impactar diretamente a vida das pessoas", afirmou, enfatizando o foco em desenvolvimento ou uso de IA de forma ética e segura, respeitando direitos fundamentais das pessoas: "Tudo isso está associado ao combo de governança, auditoria e transparência".
O processo de criação e implementação de IA deve incluir, desde o início, avaliação criteriosa dos riscos, objetivos e mitigações, acompanhando todas as fases, desde o planejamento até a descontinuidade da ferramenta, de acordo com Manuela Silva. Ela foi uma das 35 especialistas selecionadas em todo o Brasil para contribuir com sugestões para a atualização da resolução 332/2020, que visa estabelecer diretrizes mínimas para o uso de IA no âmbito do Judiciário.
Capacitação e comitês de risco
A advogada do PG também destacou a importância da capacitação contínua dos profissionais que lidam com IA, dado o conhecimento técnico necessário para identificar e lidar com falhas, sugerindo então a criação de comitês de risco dentro do CNJ para agir de forma preventiva: "É fundamental que esses comitês tenham um plano de ação definido antes que os problemas aconteçam, para que não se perca tempo no caos", alertou.
Proteção de dados e grupos vulneráveis
Manuela Silva também chamou atenção especial para o tratamento de dados de crianças, adolescentes e idosos, grupos mais vulneráveis e que exigem cuidado redobrado para evitar o uso indevido de informações. Além disso, defendeu a criação de uma política de IA que aumente a transparência para os usuários, esclarecendo de forma simples o uso da tecnologia, suas finalidades e quem procurar em caso de dúvidas.
Participação da sociedade civil e transparência pública
Entre as sugestões apresentadas, a especialista do PG Advogados propôs a inclusão de representantes da ANPD - Autoridade Nacional de Proteção de Dados e da sociedade civil no Comitê de IA do CNJ. "A avaliação anual de riscos conduzida por esse comitê deve ser precedida de audiência pública, garantindo a participação de especialistas e da sociedade", acredita.
Outro ponto importante foi a sugestão de que os erros identificados no uso de IA pelo Judiciário sejam tornados públicos, promovendo a transparência e aumentando a confiança da sociedade no uso dessas ferramentas.
IA de alto risco e os desafios concretos
Para ilustrar os riscos de ferramentas de IA mal regulamentadas, Manuela Silva trouxe o exemplo do TJ/CE, que utiliza IA para avaliar o risco de revitimização de mulheres vítimas de violência doméstica. Segundo a minuta da nova resolução, essa IA seria classificada como de alto risco, e, portanto, não poderia ser utilizada.
A advogada citou o caso da Espanha, que utiliza um sistema semelhante há anos. "O sistema espanhol identificou como 'baixo risco' ou 'risco insignificante' mulheres que posteriormente foram assassinadas por seus parceiros, evidenciando as falhas da IA em situações de extrema gravidade", relatou. De acordo com o Ministério do Interior da Espanha, 8% das mulheres classificadas como em 'risco insignificante' e 14% em 'baixo risco' relataram ter sofrido violência novamente. Desde 2007, pelo menos 247 mulheres foram mortas após serem avaliadas pela ferramenta.
Com esses exemplos, Manuela Silva destacou a importância de normas rigorosas para garantir que as ferramentas de IA sejam seguras e eficazes, especialmente em contextos tão delicados quanto o combate à violência doméstica.
A participação de Manuela Silva na audiência pública do CNJ trouxe à tona a necessidade urgente de se atualizar as diretrizes para o uso de IA no Judiciário brasileiro. Suas propostas, que abrangem desde a governança até a inclusão de grupos vulneráveis e mais participação da sociedade, apontam caminhos para o uso mais seguro e ético da IA, garantindo que essas ferramentas sejam verdadeiros aliados na promoção da justiça e não fontes de novos problemas.