O plenário do IAB - Instituto dos Advogados Brasileiros aprovou, na quarta-feira, 24, parecer que sugere alterações na redação do projeto de lei 2.338/23, que regula o uso da inteligência artificial no Brasil. Além de apontar imprecisões técnicas no texto da proposta, a análise, elaborada pela Comissão de Inteligência Artificial e Inovação da entidade, também propõe a criação do Conselho Nacional de Inteligência Artificial. Ele seria a autoridade nacional de IA responsável por propor diretrizes estratégicas para a elaboração de uma política nacional de inteligência artificial e por promover estudos e debates sobre essa tecnologia.
O parecer teve relatoria da presidente da Comissão de Inteligência Artificial e Inovação do IAB, Ana Amelia Menna Barreto, e dos membros do mesmo grupo José Luiz Pimenta, Valéria Ribeiro, Pedro Trovão, Alexandre Mattos, Bernardo Gicquel, Adriana Brasil Guimarães, Patrícia Medeiros e Ygor Valério. Os consócios analisaram o projeto de lei a partir das disposições iniciais do texto e de áreas específicas, como a proteção aos trabalhadores, a preservação dos direitos autorais, a fiscalização e os riscos desses sistemas, a responsabilização civil das IAs e a garantia do respeito aos direitos humanos.
No âmbito da fiscalização da inteligência artificial, o parecer aponta que a indicação da ANPD -Autoridade Nacional de Proteção de Dados, como instituição competente para coordenar o SIA -Sistema Nacional de Regulação e Governança de Inteligência Artificial, é inconstitucional. "São de iniciativa privativa do presidente da República as leis que disponham sobre organização administrativa e judiciária, matéria tributária e orçamentária, serviços públicos e pessoal da administração dos territórios", explica o texto.
Previsão de recursos
Segundo os relatores, o PL também determina que o Poder Executivo forneça os recursos necessários à ANPD para sua reestruturação administrativa, no entanto, a imposição de encargos financeiros sem previsão de recursos é proibida pela EC 128/22. Sendo assim, o parecer indica a necessidade de uma autoridade própria para a matéria e sugere a criação do Conselho Nacional de Inteligência Artificial, que reuniria instituições científicas, sindicatos e entidades da sociedade civil e do setor empresarial relacionadas ao tema.
Ao tratar dos direitos autorais, o parecer pede a exclusão de parágrafo do projeto cuja redação autoriza a ampla mineração comercial de dados sem especificar a abrangência desse conceito. "O uso desses dados não encontra limites na legislação proposta e poderá ser empregado para qualquer finalidade comercial", afirmam os relatores. Eles ainda apontam a necessidade de que a regulação garanta que as obras usadas para treinamento de sistemas possam ser objeto de opt-out. Nesse regime, cabe ao autor expressar, se assim desejar, que sua obra não seja usada para treinamento.
Analisando a norma sob o olhar do Direito do Trabalho, os relatores apontaram imprecisões técnicas na redação do PL. Segundo o parecer, o termo "trabalho" é usado de maneira ampla, já a palavra "trabalhadores" tem conceito vago no texto. Os juristas propõem que, nos artigos que tratam do tema, o legislador diferencie o trabalho subordinado do autônomo; defina o conceito de trabalhadores em cada contexto empregado; substitua "contrato de trabalho" por "contrato de emprego", quando a referência for a relações regidas pela CLT; use "emprego" apenas para se referir ao trabalho regido pela CLT; substitua o uso do termo "trabalho por contra própria" por "trabalho autônomo"; e especifique o tipo de dispensa tratada na norma para evitar ambiguidades na sua interpretação.
Responsabilidade objetiva
Os relatores também sugerem que, no âmbito da responsabilidade civil, o marco regulatório adote o modelo de responsabilidade objetiva – nele, aquele que se beneficia economicamente da exploração de uma IA deve suportar os riscos por eventuais danos que essa atividade possa causar. Eles defendem que essa adequação é fundamental para assegurar um ambiente de segurança jurídica: "O medo das incertezas pode prejudicar a competição e a livre iniciativa, sendo significativamente negativa e pior do que regras claras, ainda que conservadoras, em proteção à vítima".
Em artigo que proíbe o poder público de usar a IA para classificar pessoas, de forma ilegítima, para o acesso a políticas públicas, o parecer propõe que a norma indique o padrão de pontuação que deve ser seguido. Já na questão do uso de inteligência artificial na área da saúde, os relatores apontaram que a redação do PL deve incluir a obrigatoriedade de softwares de alto risco terem registro na Anvisa, em consonância com o que preveem portarias do próprio órgão. Além disso, eles pedem que o legislador garanta o sigilo da auditabilidade do algoritmo da IA para evitar violações a marcas.
O parecer sugere, ainda, mudanças no projeto para que haja garantia de acessibilidade a todos. Segundo o texto, a norma deve ser alterada para incluir: O direito ao acesso fácil e atendimento humanizado a grupos vulneráveis e hipervulneráveis afetados por sistemas de IA; os hipervulneráveis no escopo de garantias listadas pela proposta legislativa, e a adoção de linguagem acessível e mecanismos de segurança para autenticação da identidade de hipervulneráveis com necessidades especiais.
Aplicabilidade
Os relatores ainda destacaram a necessidade de o marco regulatório fixar de forma clara, em suas disposições iniciais, o alcance da norma. Eles sugerem o acréscimo de um parágrafo determinando a aplicabilidade da futura lei a toda empresa, com ou sem filial no Brasil, que venha a criar, desenvolver e comercializar sistemas de IA no país.
O presidente nacional do IAB, Sydney Limeira Sanches, que conduziu a sessão, elogiou o trabalho dos relatores e destacou que as sugestões indicadas no parecer representam melhorias importantes para que a proposta se integre às melhores normas internacionais. "Em alguns capítulos, o projeto de lei traz, inclusive, novidades, se compararmos às normas já existentes. Acredito que o Brasil possa liderar um debate internacional com o objetivo de assegurar parâmetros para que a IA possa se desenvolver", disse ele.
O autor da indicação que deu origem à análise, Bernardo Gicquel, que também colaborou com o texto, defendeu que o PL deve ser aprovado com um texto que não engesse o desenvolvimento tecnológico desses sistemas: "A regulação de IA não pode adentrar na tecnologia. A tecnologia tem que ter liberdade para evoluir. O importante é o debate dos conceitos principiológicos para que possamos, de fato, ter uma lei inovadora".