Este será um ano especial para as empresas de tecnologia de IA e os usuários quando o Senado Federal colocar em pauta o Marco Legal da Inteligência Artificial brasileiro, trazendo novos dispositivos de regulação. A minuta do anteprojeto de lei, elaborada por uma comissão de juristas, já foi entregue ao presidente do Senado em dezembro do ano passado, depois de oito meses de trabalho, período no qual coletou informações a partir de painéis, seminário internacional e do substitutivo aos projetos em tramitação(PL 5.051/2019, que propõe princípios para uso da inteligência artificial no Brasil; PL 872/2021, que disciplina uso no país e o PL 21/2020, que estabelece fundamentos, princípios e diretrizes para o desenvolvimento e a aplicação da inteligência artificial no Brasil)
Para uma tecnologia que já vem sendo aplicada em uso intensivo em diferentes segmentos no Brasil e no mundo, o anteprojeto brasileiro do Marco Legal da IA guarda similaridade a projetos em outros países, inclusive das propostas da União Europeia, ao abordar a garantia de direitos fundamentais, gradação de riscos e responsabilização pelo uso da tecnologia de IA e seus impactos para a sociedade.
Como expressa, o professor Fernando Filgueira, doutor pelo Instituto Universitário de Pesquisas do Rio de Janeiro, que tem analisado estratégias de diferentes países frente à regulação da IA “regular a IA não é igual regular uma coisa, […] em que o Estado pode estabelecer determinados parâmetros de segurança ou aquilo que ele quer regular, passar isso para a indústria e de alguma forma criar uma relação de comando e controle […]. Nós estamos falando de uma tecnologia de propósito geral que tem diversas aplicações, as mais variadas […]. […] regular a IA não é propriamente regular a tecnologia em si […]. O que nós estamos regulando são modelos de negócios que usam essas tecnologias.”).
A exemplo da Lei Geral de Proteção de Dados (LGPD), a comissão de juristas propôs a criação de uma autoridade reguladora para IA, destacando as dificuldades que essa nova agência deve gerar, ao deter um perfil administrativo e fiscalizatório. Outro dado importante seria a possibilidade de adoção de uma regulação setorial para evitar conflitos e superposições. Nesse sentido, seria formado um comitê multissetorial, envolvendo diferentes atores públicos e privados. Dessa forma, o Estado não teria o controle total, nem as empresas teriam a autonomia absoluta, seria uma busca pelo equilíbrio. Em suma, as questões regulatórias deveriam envolver governança de dados, transparência, ética e accountability algorítmica, dentre outros pontos.
A agência reguladora para a IA, pelo anteprojeto apresentado deve ser independente, sendo que foi proposta uma corregulamentação entre o governo, setor privado, academia e sociedade civil. A autorregulação seria aceitável em alguns casos, embora o debate sobre o impacto da tecnologia na garantia dos direitos cidadãos fosse visto como ponto fundamental que deve figurar no Marco Legal, mas de forma que as regras não inibam o desenvolvimento.
A exemplo da Comissão Europeia, que apresentou em 2021 sua proposta inicial para regular a Inteligência Artificial, o anteprojeto brasileiro aponta a necessidade de promover uma regulação baseada em risco, inclusive, apontando alguns usos considerados inaceitáveis. Mas também a comissão aventou a possibilidade de uma regulação baseada em direitos ou na combinação dos dois modelos (direitos e riscos); acrescentando a necessidade de uma avaliação antes de a tecnologia entrar no mercado.
Outro ponto importante do anteprojeto está ligado à pesquisa e inovação para que o Marco Legal não inviabilize o desenvolvimento tecnológico. Para Crisleine Yamaji, da Febraban e professora do Ibmec, integrante da comissão, “é um desafio muito grande para a Comissão pensar um pouco nesse arranjo institucional de fiscalização que efetivamente não imponha um ônus demasiado ao desenvolvimento econômico e tecnológico no País” (...) “o desenvolvimento da IA e da inovação no País não depende só de cooperações e parcerias, mas também de uma legislação e de uma regulamentação que deem espaço para esse aprendizado”.
Para a questão da defesa de direitos fundamentais a comissão de juristas ouviu vários atores da sociedade civil, entre as muitas propostas apresentadas, estava a identificação de tecnologias de IA de alto risco, utilizando critérios bem definidos. Foram consideradas como inaceitáveis por diferentes autores: “reconhecimento facial em espaços públicos, policiamento preditivo, armas autônomas, reconhecimento de emoções e crédito social (social scoring) (...)vedação do emprego de IA que envolve graves riscos” (...) “sistemas artificiais que se fazem passar por seres humanos para fins de coerção ou manipulação, serem humanos; tecnologias que possam vir a interferir no processo democrático; sistemas que promovam deliberadamente qualquer tipo de dano físico, psíquico, emocional ou social a indivíduos; (…) armas autônomas (…); sistemas para fins de monitoramento de indivíduos, monitoramento Coordenação de Comissões Especiais, Temporárias e Parlamentares de Inquérito 220 em massa, criação de escores sociais, e profiling de indivíduos, mesmo que para fins de segurança pública, persecução penal ou inteligência nacional; sistemas que violem direitos humanos (Declaração Universal dos Direitos Humanos das Nações Unidas); sistemas que violem os Princípios e Direitos Fundamentais no Trabalho da OIT (Organização Internacional do Trabalho); sistemas que promovam obstáculos à implementação dos Objetivos de Desenvolvimento Sustentável estabelecidos pelas Nações Unidas”; suas decisões, ações e ordens dadas”; Rankeamento ou pontuação social pelo poder público ou por entes privados, (…); o uso do reconhecimento biométrico facial, ou de outra natureza, em tempo real ou não em censos étnico-raciais (…); vigilância de massa; manipulação de comportamentos ou condutas humanas; uso de inteligência artificial em armas letais e não letais”.
O anteprojeto faz uma ressalva importante que mesmo nos casos de alto risco, é fundamental que o Marco regulatório as IA não impeça o uso da tecnologia, mas estabeleça medidas de mitigação de risco. Houve apoio para a distribuição da responsabilidade nos casos de risco de uso de tecnologia de IA. Haveria responsabilidade objetiva para os operadores de sistemas de IA de alto risco e de responsabilidade subjetiva nos casos de sistemas de outras categorias.
Outros conceitos ligados à tecnologia de IA também foram inclusos, como transparência e explicabilidade, destacando a importância de preservar os interesses das empresas quanto aos seus segredos comerciais. Também não ficaram fora do debate os mecanismos de supervisão e revisão humana do sistema de IA.
O relatório ainda cita regulamentações de vários países , com destaque para a Alemanha pelo volume de iniciativas de regulação, que conta com a criação de um organismo central para certificação de sistemas de IA, Comissão de Ética sobre Direção Automatizada e Conectada, e a Áustria, que conta com um Conselho de Robótica e Inteligência Artificial, formado por especialista na área de pesquisa, ensino e indústria , que debatem oportunidades e riscos da tecnologia de IA.
O relatório é muito objetivo ao estabelecer uma perspectiva realista no futuro imediato: “Na perspectiva de equilibrar o respeito aos princípios da IA e a promoção da inovação, pelo menos neste momento, salvo em algumas áreas específicas, a governança da IA deve ser desenhada principalmente com leis brandas (soft laws), o que é favorável às empresas que respeitam os princípios da IA. No entanto, é necessário continuar discutindo a governança de e essas discussões provavelmente se tornarão mais ativas no futuro”.