O Colorado está prestes a se tornar o primeiro Estado dos EUA a impor restrições abrangentes ao uso de IA por empresas privadas. A lei de proteção ao consumidor para inteligência artificial (SB24-205) foi recentemente enviada ao governador para assinatura e, se promulgada, entrará em vigor em 1º/2/26. Esta legislação inovadora visa proteger contra a discriminação algorítmica, exigindo que tanto desenvolvedores quanto implementadores de sistemas de IA de alto risco exerçam cuidado razoável.
Qual a definição de Sistemas de IA de Alto Risco?
Nos últimos meses vem se discutindo no Parlamento Europeu a utilização e processamento de dados com uso de IA, mensurando os riscos e classificando-os, tanto que foi aprovado a primeira lei sobre o assunto.
Nesse ordenamento criado, a prioridade consiste em tutelar e garantir que os sistemas de IA utilizados sejam seguros, transparentes, rastreáveis, não discriminatórios e respeitadores do ambiente. Tais sistemas devem ser supervisionados por pessoas, em vez de serem automatizados, para evitar resultados prejudiciais e catastróficos, principalmente no mundo globalizado, que as informações chegam em "piscar de olhos". Por isso, a maior preocupação é classificar os riscos e evitá-los.
No mais, um sistema de IA classificado como alto risco pode ser definido como "aqueles que afetam negativamente a segurança ou os direitos fundamentais, quando implementado, toma ou é um fator substancial na tomada de uma decisão consequente". Assim, deve-se ser protegido por medidas de segurança da informação, evitando ao máximo sua utilização, já que pode gerar riscos ao titular das informações, além de reputacionais para a empresa.
Quais são as obrigações dos desenvolvedores conforme a lei de Colorado?
Os desenvolvedores de sistemas de IA de alto risco devem:
- Divulgar e fornecer documentação aos implementadores sobre o uso pretendido do sistema de alto risco, riscos conhecidos ou previsíveis, um resumo dos dados utilizados para treiná-lo, possíveis vieses, medidas de mitigação de riscos e outras informações necessárias para que o implementador complete uma avaliação de impacto;
- Fazer uma declaração pública resumindo os tipos de sistemas de alto risco desenvolvidos e disponíveis para um implementador;
- Informar, dentro de 90 dias, o procurador-geral e os implementadores conhecidos quando a discriminação algorítmica for descoberta, seja por autoavaliação ou aviso do implementador.
Quais são as obrigações dos Implementadores?
Os implementadores de sistemas de IA de alto risco devem:
- Implementar uma política de gestão de riscos que governe o uso de IA de alto risco e especifique processos e pessoal usados para identificar e mitigar a discriminação algorítmica;
- Completar uma avaliação de impacto para mitigar possíveis abusos antes que os consumidores usem seus produtos;
- Notificar um consumidor sobre itens especificados se o sistema de IA de alto risco tomar uma decisão consequente em relação ao consumidor;
- Se o implementador for um controlador sob a CPA - lei de privacidade do Colorado, deve informar o consumidor sobre o direito de optar por não ser perfilado em decisões totalmente automatizadas;
- Fornecer ao consumidor a oportunidade de corrigir dados pessoais incorretos que o sistema processou ao tomar uma decisão consequente;
- Oferecer ao consumidor a oportunidade de apelar, através de revisão humana, se tecnicamente viável, uma decisão consequente adversa decorrente da implementação do sistema;
- Garantir que os usuários possam detectar qualquer conteúdo sintético gerado e informar aos consumidores que estão interagindo com um sistema de IA.
A lei contém uma cláusula de porto seguro que fornece uma defesa afirmativa (sob a lei do Colorado em um tribunal do Colorado) para um desenvolvedor ou implementador que:
- Descubra e corrija uma violação por meio de testes internos ou equipes de segurança;
- Cumpra com o framework de gestão de riscos de IA do NIST - Instituto Nacional de Padrões e Tecnologia ou outro framework de gestão de riscos reconhecido nacional ou internacionalmente.
Esta iniciativa do Colorado marca um passo significativo na regulamentação do uso de IA, destacando a importância de práticas responsáveis e transparentes no desenvolvimento e implementação de tecnologias emergentes. Ao estabelecer regras claras e exigências rigorosas para evitar a discriminação algorítmica, a legislação busca proteger os consumidores de decisões potencialmente prejudiciais tomadas por sistemas de IA.
À medida que a tecnologia continua a avançar rapidamente, outras jurisdições poderão observar de perto a abordagem pioneira do Colorado, possivelmente adotando medidas semelhantes para assegurar que a inteligência artificial seja desenvolvida e utilizada de maneira ética e justa. A promulgação desta lei não apenas coloca o Colorado na vanguarda da regulamentação de IA, mas também serve como um modelo para equilibrar a inovação tecnológica com a proteção dos direitos dos consumidores.
--------------------
BRADFORD, Grace. Colorado Enacts Landmark AI Legislation to Address Algorithmic Bias. Lexology. Disponível em: https://www.lexology.com/library/detail.aspx?g=e38d1ccc-2900-4127-8d27-8bba7e2e0156. Acesso em: 17 maio 2024.
COLORADO GENERAL ASSEMBLY. SB24-205: Consumer Protections for Artificial Intelligence. Disponível em: https://leg.colorado.gov/bills/sb24-205. Acesso em: 17 maio 2024.
EUROPEAN PARLIAMENT. Lei da UE sobre IA: primeira regulamentação de inteligência artificial. Disponível em: https://www.europarl.europa.eu/topics/pt/article/20230601STO93804/lei-da-ue-sobre-ia-primeira-regulamentacao-de-inteligencia-artificial. Acesso em: 17 maio 2024.