É um fato que há tantas definições de Inteligência Artificial (IA) quanto o número de comunidades científicas e o consenso ainda vem sendo construído, embora alguns conceitos tenham mais aceitação. É o caso do conceito criado por François Chollet, engenheiro de software e pesquisador. Para ele, IA é um sistema computacional capaz de generalizar conhecimento e aplicá-lo em ambientes desconhecidos.
Igualmente polêmico vem sendo o debate sobre a regulamentação das tecnologias de IA. A discussão passa pela necessidade de estabelecer regras para o desenvolvimento ético, principalmente quanto às técnicas de machine learning e deep learning, ou seja, do aprendizado das máquinas sem programação, com capacidade autônoma de aprendizado e melhoramento contínuo.
A aplicação da IA vem se expandido em todo o mundo, muito além dos carros autônomos e diagnósticos médicos precisos, impactando a vida das pessoas, empresas e governos, com adoção ampliado de sistemas inteligentes, principalmente para entender e classificar a grande quantidade de dados gerados diariamente. Contudo, em todo o mundo, a regulamentação da IA está em diferentes estágios de evolução.
A regulamentação deve assegurar a evolução para as corporações, mas reduzir os possíveis riscos aos cidadãos. Um marco é o relatório da OCDE – Organização para a Cooperação Econômica para o Desenvolvimento que, em 2016, já tinha externado suas preocupações em torno de regras de governança ligadas à IA, uma vez que poderia gerar incremento do desemprego em decorrência da automação, crescimento da distorção na distribuição de renda e resultados comprometidos por falta de supervisão humana. Quatro anos depois, a mesma OCDE trouxe à público a Al Policy Observatory para contribuir com o uso responsável da tecnologia da IA,demonstrando uma contínua preocupação.
Sendo sempre um referencial regulatório, a União Europeia também apresentou em 2019 m Guia de Ética Confiável para a IA, destacando pontos que deveriam ser observados no uso da IA, como privacidade e proteção de dados, centrar a tecnologia no ser humano, garantir segurança técnica, transparência e um lastro nos Direitos Humanos para evitar qualquer tipo de discriminação. No ano passado, a UE realizou consulta pública sobre o tema para consolidar o debate encaminhado pela Comissão Especial AIDA ( Artificial Intelligence in a Digital Age), visando regular a matéria no Parlamento Europeu.
Outro avanço foi registrado pela Unesco (Agência educacional, científica e cultural das Nações Unidas) que, no ano passado, conseguiu construir um acordo sobre ética no uso da IA, com adesão de 193 países. Um dos pontos fundamentais foi a recomendação de proteção e transparência, permitindo que os cidadãos possam acessar, alterar ou excluir dados pessoais dos registros. Uma forte restrição é quanto ao uso de sistemas de IA para promover classificação social e vigilância em massa. O mundo tem registrado, por exemplo, o uso de ferramentas de IA em redes sociais para espalhar conteúdos extremistas, compartilhados como rastilho de pólvora, popularizando mensagens de ódio.
Os Estados Unidos também se unem aos países que buscam propor diretrizes para a IA com a publicação recente de uma declaração, a “ AI Bill of Rights”¹, pelo Escritório de Política Científica e Tecnológica da Casa Branca, que tem a função de uma carta de intenções para orientar sobre a tecnologia de IA. De acordo com o governo americano, os cinco dispositivos de proteção aos seus cidadãos devem ser aplicados a todos os sistemas automatizados do país. Pela diretiva, o público tem o direito de ser protegido de sistemas inseguros, não ser discriminado por algoritmos ou de práticas abusivas de dados, ter o direito de saber que o sistema é automatizado e como afeta as pessoas e optar por não participar.
Além das regulações nacionais, áreas específicas também buscam normatizar a IA .Uma delas é a Saúde, que mais vem incorporando – e de forma acelerada -- as tecnologias de IA, devendo alterar a forma da prática clínica e gestão da saúde como conhecemos hoje. No Brasil, para tentar responder com presteza a uma tecnologia disruptiva, órgãos governamentais e entidades de classe estão criando uma regramentos com base em diretrizes profissionais e código de conduta.
Uma referência vem sendo a Organização Mundial da Saúde (OMS)², que tem orientado o emprego da IA na saúde, tendo publicado primeiro relatório, intitulado “Ética e governança da inteligência artificial para a saúde”, no ano passado. Para a OMS, a IA tem auxiliado a agilizar e dar maior precisão a diagnósticos e triagem de doenças, além de fortalecer a pesquisa e desenvolvimento de remédios e deve estar centrada em seis principais: proteção da autonomia humana, promoção do bem-estar e segurança humana e interesse público, garantir transparência, explicabilidade e inteligibilidade, promoção da responsabilidade e prestação de contas, garantia da inclusão e equidade, promoção da IA de forma responsiva e sustentável.
Um dos pontos principais da normatização do uso da IA na saúde repousa na transparência algorítmica, uma demanda da comunidade médica que deseja saber como os algoritmos são desenvolvidos e empregados, buscando contornar a chamada “opacidade” algorítmica, pelo qual não se sabe como o processo de machine learn chegou a determinado diagnóstico, podendo levar o médico a se tornar um refém das previsões das novas tecnologias. Nesse ponto, torna-se crucial que os médicos incorporem cada vez mais o conhecimento sobre a IA, para que tenham uma visão de como o sistema opera para terem mais elementos e decidirem se aceitam ou rejeitam determinado diagnóstico ou o tratamento sugerido pela máquina e as responsabilidades que isso implica.
Se o mundo está construindo seus sistemas jurídicos para lidar com a IA, o Brasil não foge à regra. Uma Comissão de juristas vem trabalhando em um texto substitutivo para estabelecer os princípios para regular a IA no país, com base no PL 5.051/19 ( que disciplina o uso da Inteligência Artificial no Brasil); o PL 5691/19 ( que institui a Política Nacional de Inteligência Artificial, com o objetivo de estimular a formação de um ambiente favorável ao desenvolvimento de tecnologias em Inteligência Artificial) e em audiências públicas que foram realizadas este ano e debateram eixos temáticos, como direitos e deveres, impactos, governança e fiscalização da IA .A espinha dorsal da proposta de regulação da IA no Brasil, certamente, está na Lei Geral de Proteção de Dados (LGPD – Lei 13.709/18).