O EU AI Act (Regulamento Europeu sobre Inteligência Artificial)
No dia 14 de junho de 2023, o Parlamento Europeu aprovou, por maioria, o EU AI Act (Regulamento Europeu sobre Inteligência Artificial), primeira legislação geral sobre o assunto em todo o mundo. O regulamento estabelece um conjunto de regras de funcionamento de sistemas de inteligência artificial (IA) para assegurar que operem conforme as leis em vigor na União Europeia (UE), com o objetivo de aumentar a segurança jurídica e facilitar os investimentos, além de garantir a proteção de princípios éticos e direitos fundamentais.
O texto, que traz uma regulação baseada em abordagem de risco (graduando-o nas categorias inaceitável, elevado ou mínimo), é debatido desde 2020, e sua votação foi acelerada recentemente dado o rápido avanço da tecnologia nos últimos anos, em especial o desenvolvimento de tecnologias de inteligência artificial generativa, isto é, tecnologias que podem aprender padrões de comportamento e, a partir de determinados comandos (ou prompts), geram conteúdos (ou outputs).
A regulação, quando aprovada definitivamente (a votação de 14 de junho foi apenas um passo na tramitação do EU AI Act), será aplicável a quaisquer fornecedores que operem sistemas de inteligência artificial na União Europeia, independentemente de estarem estabelecidos em território europeu, utilizadores de sistemas de IA localizados na UE e fornecedores e utilizadores de sistemas de IA localizados fora do território, se o resultado produzido pelo sistema for utilizado na UE.
As disposições aprovadas pelo Parlamento Europeu evidenciam a intenção de endereçar preocupações, como transparência, privacidade e tratamento igualitário aos usuários de sistemas de IA e a cidadãos em geral, que podem ser impactados pela operação de tais sistemas.
Uma das principais preocupações éticas a respeito do uso de sistemas de IA é a incorporação de vieses e parcialidades presentes nas bases de dados utilizadas que, se reproduzidos pela IA, podem prejudicar certos grupos de pessoas que são alvo de preconceitos na sociedade.
Os prejuízos a tais grupos podem ser ainda mais severos quando sistemas de IA enviesados são utilizados para determinadas atividades relevantes na sociedade, como análise de crédito, acesso a serviços privados e a serviços públicos essenciais, recrutamento ou seleção de pessoas para empregos e envio ou estabelecimento de prioridades em serviços de resposta a emergências.
Nesse sentido, o Título II do EU AI Act dispõe sobre as práticas de inteligência artificial de risco inaceitável e que são, portanto, proibidas. Tais práticas incluem a utilização de sistemas de IA que:
- empreguem técnicas de manipulação subliminar para distorcer o comportamento de pessoas de forma que cause ou possa causar danos físicos ou psicológicos a essa ou outras pessoas;
- explorem a vulnerabilidade de um grupo específico de pessoas (como, por exemplo, por sua idade ou com deficiência física ou mental); ou
- sejam utilizados por autoridades públicas para classificar a credibilidade de pessoas com base em seu comportamento social ou em características pessoais, de modo a resultar em um tratamento prejudicial ou desfavorável a determinadas pessoas ou determinados grupos.
Ainda, a utilização de sistemas de identificação biométrica em tempo real e a distância em espaços acessíveis ao público é considerada atividade proibida pela norma, com exceção de situações como:
- a investigação de vítimas de crimes;
- a prevenção a ameaças específicas à vida ou à segurança de pessoas, como um ataque terrorista; e
- a detecção, localização, identificação ou instauração de ação penal relativa a um infrator penal ou suspeito.
Além de observar salvaguardas e condições necessárias, a utilização de sistemas de identificação biométrica em tempo real e a distância em caráter de exceção deve ser autorizada por uma autoridade judiciária ou administrativa independente do Estado-Membro no qual ocorrerá a utilização, após a apresentação de um pedido fundamentado.
Os sistemas de IA que criem riscos significativos para a saúde e a segurança ou para os direitos fundamentais das pessoas também podem ser classificados, conforme o caso, como de risco elevado. Tais sistemas terão de cumprir um conjunto de requisitos obrigatórios e seguir procedimentos de avaliação da conformidade antes de serem colocados no mercado, e a classificação leva em conta não apenas a função dos sistemas de IA mas também suas finalidades específicas e as modalidades para as quais serão utilizados.
O Título III da regulação estabelece as regras de classificação e identifica duas categorias principais de sistemas de IA de risco elevado:
- sistemas utilizados como componentes de segurança de produtos abrangidos pela legislação da UE (como, brinquedos, automóveis, aviação, dispositivos médicos e elevadores) e
- outros sistemas de IA autônomos com implicações em matéria de direitos fundamentais, explicitamente mencionados no anexo III do texto, que terão de ser registrados em uma base de dados da UE (como, por exemplo, identificação biométrica e categorização de pessoas singulares, gestão e funcionamento de infraestruturas essenciais, educação e formação profissional, emprego, aplicação da lei, entre outros).
Por sua vez, os demais sistemas de IA que (i) interagem com seres humanos; (ii) são utilizados para detectar emoções ou determinar a associação com categoriais sociais com base em dados biométricos; (iii) geram ou manipulam conteúdos, o que pode ser o caso das chamadas IA generativas, deverão, conforme disposições do Título IV, observar obrigações de transparência para que as pessoas tomem decisões informadas a respeito de sua utilização.
Ainda, se um sistema de IA gerar ou manipular conteúdo de imagem, áudio ou vídeo consideravelmente semelhante a conteúdo autêntico, deve divulgar que o conteúdo novo foi gerado por meio automatizado, exceto quando for utilizado para fins legítimos (manutenção da ordem pública e liberdade de expressão, por exemplo).
Nesse sentido, a proposta de alteração nº 399 ao regulamento prevê a inclusão do Artigo 28-B, o qual, em seu item C, dispõe que os fornecedores de modelos de base utilizados em sistemas de IA generativa devem “documentar e disponibilizar ao público um resumo suficientemente pormenorizado da utilização dos dados de treino protegidos pela legislação em matéria de direitos de autor”.
Caso a alteração seja incluída no texto final do EU AI Act, a divulgação dos materiais utilizados pelos fornecedores dos sistemas de IA e protegidos por direitos autorais poderá auxiliar na eventual demonstração, pelos titulares de direitos autorais, de que seus direitos foram infringidos mediante uso não autorizado pela IA.
O resultado prático de tal disposição será, provavelmente, um aumento no número de disputas judiciais (além das que já foram iniciadas e são iniciadas a cada semana, conforme notícias recentes) tanto em nível local quanto global, já que a redação sugere que a divulgação deverá compreender obras protegidas por direitos autorais utilizadas em qualquer lugar do mundo.
Além disso, a nova alteração levanta dúvidas quanto ao nível de detalhamento do resumo, e se este deverá incluir novas obras criadas a partir de outputs dos sistemas de IA, em especial aquelas criadas para uso interno das empresas que os utilizam, o que trará ainda mais discussões a respeito da titularidade de obras geradas pelo uso de IA em diversas jurisdições.
Vale mencionar que, além de criar regras, restrições e proibições, a regulação estabelece medidas de apoio à inovação, incentivando a criação de sandboxes regulatórios, que são ambientes criados por autoridades competentes para realizar a testagem de tecnologias inovadoras durante um período limitado.
A regulação prevê, ainda, que os Estados-Membros da UE devem estabelecer regimes de sanções, e que as multas por descumprimento das regras podem chegar a 30 milhões de euros ou 6% do valor da receita anual da empresa infratora (o que for maior).
Outro ponto relevante é a criação do “Comitê Europeu para a Inteligência Artificial”, composto por representantes dos Estados-Membros e da Comissão Europeia, o qual facilitará a implementação do novo regulamento pela União Europeia.
Possíveis reflexos no Brasil
Por se tratar da primeira legislação geral aprovada sobre o assunto, e a de maior alcance e notoriedade até o momento, a expectativa é de que outros países acelerem o processo de discussão e implementação de regulações semelhantes sobre o tema, inclusive o Brasil.
Atualmente não há, no País, uma regulação geral no âmbito federal sobre inteligência artificial, embora tramitem algumas propostas e haja legislação local. Em 2021, por exemplo, a Assembleia Legislativa do Estado do Ceará aprovou a Lei Estadual 17.611/2021, sancionada pelo Governador do Estado, a qual estabelece diretrizes principiológicas para sistemas de IA no âmbito estadual.
Em suma, a Lei Estadual prevê que os sistemas de IA devem ser concebidos de forma segura, baseados na ética e em consonância com as leis brasileiras, bem como devem interagir com respeito à dignidade da pessoa humana, possibilitar que os usuários tenham controle de seus dados pessoais fornecidos e a forma como estão sendo usados, promover o bem-estar social e a não incitação ao ódio e à violência e garantir a não discriminação.
Em nível nacional, os projetos de lei (PLs) 5051/19, 21/20 e 872/21, que têm como objetivo comum estabelecer princípios e regras para o desenvolvimento e a aplicação da IA no Brasil, foram as primeiras propostas legislativas sobre o tema e, a partir delas, foi instalada, em março de 2022, uma comissão de juristas a fim de elaborar a minuta do substantivo a partir de tais PLs.
Em 6 de dezembro de 2021, a comissão de juristas apresentou ao Presidente do Senado, o senador Rodrigo Pacheco, o relatório final do texto substitutivo. A partir da minuta, em 3 de maio de 2023, o Presidente do Senado autuou o PL 2338/2023, que se tornou a principal proposta sobre o tema e estabelece normas gerais de caráter nacional para o desenvolvimento, a implementação e o uso responsável de sistemas de IA.
Assim como a regulação europeia, o PL 2338/2023 tem como objetivo regulamentar o uso da inteligência artificial visando a proteger direitos fundamentais e garantir a implementação de sistemas seguros e confiáveis “em benefício da pessoa humana, do regime democrático e do desenvolvimento científico e tecnológico” (artigo 1º do PL 2338/23).
Outra semelhança é a abordagem baseada no nível de risco de cada sistema de IA. O PL 2338/23 prevê, assim como o regulamento europeu, que todo sistema de IA passará por avaliação preliminar realizada pelo fornecedor para classificação de seu grau de risco. Também são detalhadas as características para que os sistemas sejam considerados de risco excessivo (e, portanto, cujo funcionamento é proibido) e de alto risco.
O projeto classifica como de risco excessivo os sistemas que empreguem técnica para induzir pessoas ou grupos vulneráveis específicos a agirem de forma prejudicial ou perigosa e aqueles utilizados pelo poder público para avaliar, ranquear ou classificar pessoas com base em seu comportamento social, por meio de pontuação universal, para acesso a bens, serviços e políticas públicas, de forma ilegítima ou desproporcional.
Além disso, os sistemas classificados como de alto risco, sujeitos a regras rígidas, são aqueles que vierem a ser utilizados em determinadas atividades, como serviços de educação e formação profissional, controle de trânsito e redes de abastecimento de água e eletricidade, serviços de respostas a emergências e demais hipóteses previstas no artigo 17 do PL.
Ainda de forma semelhante à regulação europeia, o uso de sistemas de identificação biométrica a distância para identificar pessoas em espaços públicos só será permitido quando houver previsão em lei federal específica e autorização judicial em conexão com a atividade de persecução penal, em determinados casos previstos em lei.
O PL prevê, também, a criação de uma autoridade competente a ser indicada pelo Poder Executivo a fim de fiscalizar e regular os sistemas de IA, inclusive para proteger direitos fundamentais e aplicar sanções. Assim como a autoridade europeia, a autoridade brasileira poderá autorizar o funcionamento de ambientes regulatórios experimentais (sandbox regulatória).
Uma breve análise das duas propostas de regulação permite notar a evidente preocupação geral com a compatibilização entre a inovação e o respeito aos direitos fundamentais, a partir da criação de mecanismos para garantir previsibilidade e segurança jurídica para a inovação e o desenvolvimento tecnológico.
Próximos passos da legislação
O PL 2338/2023 está em tramitação no Senado Federal desde maio de 2023 e, provavelmente, receberá emendas no texto até sua possível sanção, especialmente em razão das rápidas alterações e novidades em matéria de inteligência artificial. Da mesma forma, o regulamento europeu ainda não está em vigor, pois, embora tenha sido aprovado em votação pelo Parlamento Europeu, ainda será necessário discutir e negociar a versão final da lei com os Estados-Membros no Conselho Europeu.
A expectativa é de que o texto final do EU AI Act seja aprovado definitivamente até o final de 2023 e, a partir de então, será possível observar os impactos das normas criadas no cenário econômico europeu, inclusive quanto ao equilíbrio entre direitos fundamentais e desenvolvimento tecnológico, e prever, ainda que em linhas gerais, as possíveis consequências de uma regulação semelhante no cenário brasileiro.
_____________
*Este artigo foi redigido meramente para fins de informação e debate, não devendo ser considerado uma opinião legal para qualquer operação ou negócio específico.
© 2023. Direitos Autorais reservados a PINHEIRO NETO ADVOGADOS.