Recentemente participei, no Senado Federal, das audiências públicas na Comissão Temporária Interna sobre Inteligência Artificial no Brasil, levando uma mensagem de atenção para não termos uma regulação que restrinja um ecossistema inovador no Brasil, ao mesmo tempo que nos traga a devida segurança jurídica dos direitos fundamentais do cidadão.
O objetivo era apresentar proposições ao PL 2.338/23, relatado pelo Senador Eduardo Gomes, e com audiências públicas conduzidas pelo Senador Marcos Pontes - o Astronauta - como ele mesmo enfatiza. O PL 2.338/23 é o substitutivo de três projetos de lei que tratam da temática da IA, a saber PL 5.051/19, PL 21/20 e PL 872/21, tendo sido elaborado por uma comissão de juristas formada no Senado Federal, durante o ano de 2022.
Estamos em um momento chave no Brasil para a regulação da IA, com risco de ocorrer a regulação açodada por nossas autoridades. A IA é uma oportunidade para transformar a economia e ser utilizada para enfrentar desafios diversos, como a luta contra o câncer, melhoria da produção alimentar, redução do consumo de energia, automatizar tarefas complexas e para tomar decisões ou previsões sobre pessoas, inclusive podendo ser benéfica para as comunidades marginalizadas. Precisamos acompanhar as discussões internacionais sobre regulamentações de IA e trabalhar com parceiros em todo o mundo para impulsionar a colaboração e garantir o alinhamento no desenvolvimento e uso responsável da IA.
É claro que as empresas precisam de regras claras para as ajudar a inovar e a concretizar todo o potencial da IA e garantindo sistemas de IA seguros e desenvolvidos no melhor interesse das pessoas. Mas esse é um jogo pesado e que está apenas no início e precisamos ter muita atenção em como nos posicionar.
A professora Anu Bradford da Universidade de Columbia em Nova Iorque, em seu recente livro “Digital Empires – The Global Battle to Regulate Technology”, desenvolve um raciocínio interessante sobre as forças globais que estão movimentando a regulação de IA. Quando falamos em IA, precisamos pensar globalmente, até porque o Brasil é um país pouco expressivo nos elementos chaves desta disputa. Assim teríamos 3 grandes forças, primeiro o modelo americano impulsionado pelo mercado, com ênfase nas forças de mercado e menor intervenção governamental, mais propício para expansão global das Bigtechs. Segundo o modelo chinês impulsionado pelo Estado, com o ambiente digital fortemente dirigido pelas autoridades no qual o governo exerce um controle substancial sobre o espaço digital, primando pelas empresas de infraestrutura de comunicações e buscando um domínio das tecnologias 5G. Por fim, o modelo europeu impulsionado pelos direitos, adotando uma estrutura regulatória orientada pelos direitos, enfatizando o individualismo democrático liberal e a proteção dos direitos dos cidadãos no âmbito digital.
E o Brasil, como fica nessa história? Não somos um player importante de desenvolvimento de inteligência artificial, aliás temos um sistema educacional muito deficiente, conforme dados recentemente divulgados do Programa Internacional de Avaliação de Estudantes - PISA, levantados entre 2018 e 2022, que colocam o Brasil, entre 81 países avaliados, em posições muito incomodas na lanterna mundial em matemática (65º), leitura (52º) e ciências (62º).
Além disso, temos ainda carência de investimentos em universidades, centros de pesquisa e inovação e incubadoras, que restringem nossa capacidade de colocar o país como um líder
exportador de tecnologias de IA. Precisamos urgentemente fomentar a instalação de empresas, centros de pesquisa, aceleradoras e incubadoras em vários polos regionais para avançarmos no campo de deep learning, modelos de linguagem, tradução automática, reconhecimento de objetos e modelos geradores, dentre outros.
O Brasil é um polo de desenvolvimento em tecnologia da informação, como no setor financeiro, eleitoral e fiscal, tais como imposto de renda online, urnas eletrônicas e o PIX, que são exemplos positivos mundiais, mas precisamos também ter centros de excelência em IA. Ao invés disso, buscamos ser líderes em regulação, faz sentido isso?
Não podemos cair na tentação de criar a reserva de mercado do século XXI. Na década de noventa o Brasil já passou por um desastre na indústria do software, com a reserva de mercado para produção do software nacional, que nos deixou um legado de anos de atraso tecnológico.
O jogo no domínio dos sistemas de IA é pesado, é global e não vai ser subjugado pela legislação brasileira, e na toada que estamos indo vamos conseguir apenas ficar alijados das principais inovações desta tecnologia revolucionária.
Devemos nos preocupar em garantir que os sistemas de IA desenvolvidos e implantados no Brasil sejam seguros e não discriminatórios, bem como responsabilizem as empresas pela forma como desenvolvem e utilizam essas tecnologias. Inclusive estas devem implementar mecanismos e políticas de governança que considerem e abordem os riscos dos seus sistemas de IA e forneçam aos usuários informações suficientes para tomarem decisões informadas.
Entretanto, precisamos tomar muito cuidado com a regulação prematura de tecnologia motivada pelo medo, recentemente o Ministro de IA dos Emirados Árabes Unidos, Omar Sultan AlOlama, apontou um interessante precedente histórico que levou ao declínio do Império Otomano, com a proibição da imprensa em 1515, pelo Sultão Selim I. Na época, a imprensa estava sendo adotada em todo o mundo, mas o Oriente Médio a proibiu por 200 anos, baseado em dois argumentos de medo, primeiro o receio dos calígrafos em perder seus empregos, e segundo os religiosos com receio da impressão de versões falsas do Alcorão, que corromperiam a sociedade com desinformação.
Enquanto isso aqui no Brasil, estamos na corrida para quem vai cravar o nome como o parlamentar que fez a lei de IA, o que é extremamente perigoso, o substitutivo ao PL 2.338/23, apresentado pelo Senador Marcos Pontes agora no final de novembro de 2023, endereça algumas das preocupações que apontamos em nossa participação na audiência no Senado, entretanto, acaba por pecar em outros pontos.
O substitutivo recupera o espírito mais principiológico dos projetos anteriores ao PL 2.338/23, trabalhando também a questão do fomento ao desenvolvimento da IA no Brasil, mas de uma maneira muito singela. Além disso, o substitutivo do Senador Pontes busca dar maior enfoque à regulação baseada em riscos, excluindo a ampla abordagem de direitos do PL 2338/23 original, que tinha tanto a regulação baseada em riscos quanto em direitos, o que causava um desequilíbrio na calibragem da regulação.
Além disso, o novo substitutivo cria uma mecânica de avaliação de riscos toda voltada para o desenvolvimento dos sistemas de IA e não para o seu uso, como recomenda a melhor prática regulatória para tecnologias, tendo em vista que essas são mutáveis e evoluem muito rapidamente. Não podemos incorrer nos erros do passado, quando a regulação excessiva das tecnologias impediu o desenvolvimento do mercado de pagers no Brasil, ou se transformou em
letra morta na telefonia IP, que rapidamente superou as tecnologias anteriores, sem aguardar a evolução da regulação.
Obrigações como notificar a autoridade competente no início do desenvolvimento dos sistemas de IA, para alto e médio risco, com descrição e acompanhando diversos documentos para que a autoridade possa acompanhar os riscos parecem demasiadamente burocráticas e ineficientes. As empresas em geral estão muito à frente das autoridades no domínio das tecnologias, e a inovação não se opera de maneira cartorária e burocrática, com criação de auditorias prévias, como o substitutivo propõe. Na verdade, a inovação atropela as próprias corporações, vide a recente reviravolta no conselho de administração e presidência da OpenAI, criadora da IA generativa mais conhecida – o ChatGPT.
O substitutivo tenta corrigir algumas falhas do PL 2338/23 como a falta de um mecanismo claro de coordenação com outras autoridades. Entretanto, a previsão de que a “autoridade de IA”, seja lá o que isso significa pois não tem uma previsão clara também, irá coordenar com as agências reguladoras setoriais o desenvolvimento do ecossistema regulatório brasileiro em IA, o que envolveria mudanças na organização das entidades do poder executivo muito além da previsão na lei, soando mais como uma bravata do que uma possível realidade.
Assim o substitutivo do PL 2338 mantém a abordagem horizontal, com uma estratégia de centralização da autoridade responsável pelos sistemas de IA, o que não é um consenso mundialmente.
Essa estratégia cria duas questões regulatórias, uma primeira seria a fragmentação regulatória de diversos assuntos muito diferentes estruturados embaixo de uma única organização, assim desde sistemas de inteligência artificial relacionados a saúde, envolvendo seguros, serviços financeiros e até mesmo passando por aqueles que apenas usam dados pessoais, ficariam subordinados a uma mesma autoridade. Além disso, também provoca um risco de sobreposição de competências, tanto é assim que algumas autoridades brasileiras avocaram partes da competência atribuída a essa autoridade, antes mesmo da finalização da estruturação desse processo.
É verdade que as audiências públicas buscaram ampliar a visão unilateral da comissão de juristas, que elaborou o PL 2338/23, uma necessidade de multidisciplinariedade nunca antes vista, todavia pouco se vê no substitutivo do reflexo de outros segmentos da sociedade, como influências das áreas de engenharia, filosofia, ética ou ciências sociais, por exemplo.
Mas nem tudo está perdido, parece que um sopro divino de bom senso acometeu nossas autoridades e o senso de urgência para a regulamentação de IA e aprovação do projeto arrefeceu, e provavelmente o relator, Senador Eduardo Gomes, deve deixar a apresentação de seu relatório para o primeiro semestre de 2024, após novas audiências públicas e debates a serem realizadas ao longo do primeiro semestre de 2024.
Embora ainda não tenhamos um consenso sobre o melhor modelo regulatório a ser adotado pelo Brasil, principiológico ou mais detalhista, o importante é não nos guiarmos pelo medo. Precisamos ter um sistema flexível o bastante para que a autoridade responsável pelos sistemas de IA tenha uma competência geral para regulamentar e fiscalizar questões transversais ou outros temas muito específicos dos sistemas de IA. Ao mesmo tempo com uma multidisciplinariedade de perfis dos membros da autoridade, incluindo experiências pessoais, filósofos, juristas, tecnólogos, reguladores, dentre outros, com capacidade de interoperabilidade em diferentes competências setoriais das diferentes agências reguladoras.