IA em Movimento

Impactos da aprovação da 1ª lei sobre IA do mundo

A automação da justiça por sistema de IA já é uma realidade.

27/6/2023

O primeiro Marco Regulatório da Inteligência Artificial (IA)1 do mundo foi aprovado recentemente pelo Parlamento Europeu e deve entrar em vigor no próximo ano. O AI Act faz uma abordagem baseada em sistema de 4 riscos – inaceitável, alto risco, limitado e mínimo  - como previsto, mas realiza um aprofundamento das propostas iniciais. Um dos relatores da nova Lei, o italiano Brando Benifei afirmou que a legislação é histórica e que deve resistir ao tempo: "É crucial construir a confiança dos cidadãos no desenvolvimento da IA, definir o caminho europeu para lidar com as mudanças extraordinárias que já estão acontecendo, bem como orientar o debate político sobre IA em nível global". Os Estados Unidos divulgaram seu "Plano para uma Declaração de Direitos de IA" e a China um Projeto de regramento, mas nenhuma das duas potencias foi tão longe quanto a  União Europeia na definição de uma legislação sobre o sistema de IA e práticaa de privacidade.

Em resumo, o novo Marco Legal estabelece maiores restrições aos sistemas de Inteligência Artificial, exigindo que essa tecnologia seja supervisionada por humanos, seja transparente, não discriminatória, sustentável e tecnicamente neutra. Esse último tópico já levanta a polêmica porque há quase um consenso que a tecnologia não pode ser neutra ou não neutra, apenas permite ao ser humano acesso a limites que antes não podia alcançar, alterando a qualidade de vida do ser humano em todos os setores.

Os desenvolvedores de IA generativa vão ter de aderir a salvaguardas. Por exemplo, como o ChatGPT, Midjourney ou Bard, da IA generativa, estarão em conformidade com a nova Lei da UE?  São considerados de risco limitado e terão de incluir uma informação avisando que os conteúdos foram gerados por máquinas e que foram utilizados no treinamento um grande volume de dados, sem  violação de   direitos autorais. Os sistemas de IA ainda precisarão apresentar documentação técnica e identificar o fornecedor, sendo necessário estar em conformidade com outras normas aplicáveis a cada caso.

 Na exposição de motivos, a nova lei estabelece um conceito para o sistema: "A  inteligência artificial (IA) é uma família de tecnologias em rápida evolução capaz de oferecer um vasto conjunto de benefícios económicos e sociais a todo o leque de indústrias e atividades sociais. Ao melhorar as previsões, otimizar as operações e a afetação de recursos e personalizar o fornecimento dos serviços, a utilização da inteligência artificial pode contribuir para resultados benéficos para a sociedade e o ambiente e conceder vantagens competitivas às empresas e à economia europeia. Essa ação torna-se especialmente necessária em setores de elevado impacto, incluindo os domínios das mudanças climáticas, do ambiente e da saúde, do setor público, das finanças, da mobilidade, de assuntos internos e da agricultura".

O histórico do Marco Regulatório da IA tem início em 2020 com a publicação do "Livro Branco sobre IA", uma série de documentações, abertas à consulta pública das partes interessadas para o debate e visando atingir uma regulação mais consensual possível. A União Europeia sempre justificou sua preocupação com a regulamentação da tecnologia de IA atrelada aos direitos fundamentais dos seus cidadãos, proteção de dados pessoais, governança e segurança jurídica quando se fala em investimentos e inovação e desenvolvimento de um mercado único para aplicar à IA. O resultado da Lei, contudo, afeta uma série de tecnologias, que possuem ampla gama de usos em vários países, visando aplicar mais transparência e auditabilidade.

A Lei da IA considera inaceitável o risco decorrente da identificação biométrica remota em tempo real em espaços públicos, com raras exceções, como para combater o terrorismo; técnicas subliminares para distorcer comportamento ou visando tratamento prejudicial contra pessoas e grupos.  Já na categorização de risco elevado está distribuída em muitos tópicos, como na gestão de redes de infraestrutura pública, como trânsito, abastecimento de água, luz, gás; uso para acesso a instituições de ensino e formação profissional, assim como para avaliar estudantes; no recrutamento ou seleção de pessoas para obtenção de vaga ou avaliação de candidatos; bem como para decidir sobre promoção ou cortes de mão de obra. Esse tópico ligado aos recursos humanos, certamente, será um dos mais conflituosos porque já vem sendo aplicado em larga escala por muitas empresas em diferentes países.

Outros elementos considerados de risco elevado no uso de tecnologia de IA são as avaliações de candidatos para acesso ou perda de assistência a serviços públicos. Igualmente alto é considerado o risco  do uso da IA para avaliar o endividamento de pessoas e sua classificação de crédito ou estabelecer critérios de prioridades para envio de bombeiros, assistência médica e outros serviços de emergência.

A segurança pública é um outro ponto sensível ligado aos sistemas de IA porque a  nova lei  restringe que o emprego da tecnologia pelas autoridades policiais para uso preditivo, que determine o risco de uma pessoa singular  com base em perfil, localização e comportamento criminoso pregresso;  para mensurar o estado emocional de uma pessoa, aplicado a polígrafos e outros instrumentos; determinar elementos de prova durante inquérito ou repressão penal; elaboração de perfis ou comportamento criminal de pessoas ou grupos, seja na detecção, investigação ou repressão a delitos penais e pesquisa de dados biométricos de mídia sociais ou  imagens CFTV para montar bancos de dados de reconhecimento facial.

Igualmente complexa é a questão da migração e controle de fronteiras, sendo que a Lei da União Europeia reforça o risco elevado do uso de sistemas de IA para detectar estados emocionais de pessoa singular; para avaliar riscos de segurança, imigração irregular e de saúde de quem deseje ingressar em território de um Estado-membro ou faça análise de pedidos de asilo, visto, residência e queixas de imigrantes e refugiados.

Sobre a Justiça, a nova regulamentação estabelece como sendo de risco elevado os "Sistemas de IA concebidos para auxiliar uma autoridade judiciária na investigação e na interpretação de factos e do direito e na aplicação da lei a um conjunto específico de fatos". A automação da justiça por sistema de IA já é uma realidade. A Estônia, por exemplo, vem usando sistemas de IA para julgamento de casos com valor inferior a 7 mil euros.

Sempre criticada por ter o potencial para coibir a inovação dos sistemas de IA, o novo Marco Legal da União Europeia prevê isenções das regras legais para as atividades de pesquisa e IA sob licença de código aberto. Foram contemplados sandboxes regulatórios, em ambientes controlados para testar a tecnologia de IA antes de sua implantação, o que deve mitigar os possíveis riscos.

Diante do futuro, o novo Marco Legal da IA da União Europeia ganha um peso significativo pela votação obtida: 488 votos favoráveis, 28 contra e 93 abstenções, podendo ter reflexos mundiais. O novo diploma jurídico da UE afeta prestadores de serviço, usuários, fornecedores, importadores, representantes,  distribuidores e fabricantes de produtos que envolvam  sistemas de IA na esfera da União Europeia e deve influenciar a regulamentação de inúmeros países, como aconteceu com a GDPR (Regulamento Geral sobre Proteção de Dados), que gerou a Lei Geral de Proteção de Dados no Brasil. É possível que a tendência mundial continue alinhada à regulamentação europeia sobre a IA e  observa-se o pioneirismo europeu e a adaptação de vários países em moldes semelhantes em suas legislações de IA à luz do Quadro Regulamentar Europeu, sendo considerada abrangente e equilibrada no que diz respeito à promoção da inovação tecnológica e proteção de dados. A União Europeia continua, portanto, como um líder global em estabelecer os padrões éticos e regulatórios para o desenvolvimento e uso da IA.É o chamado Efeito Bruxelas ou a capacidade regulatória da EU quanto a concretização de direitos além de suas fronteiras, influenciando outros mercados.

__________

1 Disponível aqui.

 

Veja mais no portal
cadastre-se, comente, saiba mais

Colunistas

Fabio Rivelli é advogado, sócio do escritório Lee, Brock, Camargo Advogados (LBCA); Doutorando em Direito pela PUC-SP, Mestre em Direito PUC-SP; MBA pelo INSPER, Pesquisador efetivo registrado no CNPq pela PUC-SP no grupo de Pesquisa do Capitalismo Humanista e ESG à Luz da Consciência Quântica, Palestrante da Sorbonne de Paris pelo terceiro ano consecutivo; Secretário-adjunto do Instituto do Capitalismo Humanista; DPO Setorial da Subseção Guarulhos da OAB/SP, Presidente da Comissão de Gestão Inovação e Tecnologia da OAB/SP - Subseção de Guarulhos (gestão até 2024); Coordenador adjunto em bioética e governança corporativa da Comissão de Privacidade de Dados e IA da OAB-SP; professor e autor de livros.

Ricardo Freitas Silveira é sócio da Lee, Brock, Camargo Advogados. Doutor e Mestre em Direito pelo IDP – Instituto Brasileiro de Ensino,Desenvolvimento e Pesquisa.Especialista em gestão de contencioso de volume pela FGV e gestão de departamentos jurídicos pelo Insper.Especialista em Negócios Sustentáveis pela Cambridge University.Autor do livro "Análise Preditiva e o Consumidor Litigante".Professor convidado da Saint Paul, FIA, EDP, EBRADI e PUC-PR para cursos de pós-graduação.Coordenador da pós-graduação LEGALE em Gestão de Escritórios e Departamentos Jurídicos.Coordenador do núcleo de privacidade, proteção de dados e inteligência artificial da ESA SP.Membro consultor da Comissão de Acesso à Justiça da OAB Federal.Eleito pela Revista Análise nos anos de 2020, 2021 e 2023 como um dos Advogados Mais Admirados do Brasil em Direito Digital.