Entendendo o EU AI ACT: uma nova era na regulamentação da IA na Europa
O "EU AI ACT" proposto pela Comissão Europeia busca estabelecer um amplo quadro legal para regular a inteligência artificial na UE, alinhando-se à definição da OCDE e classificando os sistemas de acordo com seu nível de risco para os usuários, representando as primeiras regras globais sobre IA.
domingo, 24 de dezembro de 2023
Atualizado em 22 de dezembro de 2023 14:41
O "EU AI ACT" (Ato de Inteligência Artificial da União Europeia) é uma legislação proposta pela Comissão Europeia com o objetivo de estabelecer um quadro legal abrangente para a regulamentação do uso e desenvolvimento da IA na União Europeia. Este ato é considerado uma das primeiras e mais significativas tentativas de regulamentação legal de IA em uma grande região econômica. O AI ACT se alinha com a definição de sistema de IA da OCDE.
A União Europeia está buscando regular a IA como parte de sua estratégia digital, com o objetivo de criar condições melhores para o desenvolvimento e uso desta tecnologia inovadora. Em abril de 2021, a Comissão Europeia propôs o primeiro quadro regulatório da UE para a IA. Este quadro propõe que os sistemas de IA que podem ser usados em diferentes aplicações sejam analisados e classificados de acordo com o risco que apresentam para os usuários. Dependendo do nível de risco, haverá mais ou menos regulação. Uma vez aprovadas, estas serão as primeiras regras do mundo sobre IA.
O Parlamento da União Europeia alcançou um acordo provisório no dia 08 de dezembro de 2023 sobre regras para regular o uso de IA. Esse acordo coloca a UE no caminho para se tornar a primeira grande potência a ter leis específicas para IA. As negociações foram intensas, durando quase 15 horas, seguindo um debate de quase 24 horas.
O acordo histórico fechado pela Europa para regulamentar a inteligência artificial é um passo significativo e pioneiro na esfera global. Vou explicar didaticamente os principais pontos deste acordo:
Transparência e conformidade para modelos de IA: O acordo exige que modelos básicos de IA, como o ChatGPT, cumpram obrigações de transparência antes de serem disponibilizados no mercado. Isso inclui a elaboração de documentação técnica, cumprimento das leis de direitos autorais da UE e divulgação de informações sobre o conteúdo usado nos treinamentos.
Avaliação e gestão de riscos: Modelos de IA de alto impacto com risco sistêmico deverão passar por avaliações de versões, análise e mitigação de riscos sistêmicos, testes de adversidades, reportar incidentes graves à Comissão Europeia, garantir segurança cibernética e eficiência energética.
Uso de vigilância biométrica por governos: O uso de vigilância biométrica em tempo real em espaços públicos será restrito a situações específicas, como a busca de vítimas de determinados crimes, prevenção de ameaças terroristas e busca de suspeitos de crimes graves.
Sistemas de categorização biométrica: Proíbe sistemas que utilizam características sensíveis, como crenças políticas, religiosas, filosóficas, orientação sexual e raça.
Scraping indiscriminado de imagens faciais: Proíbe a coleta não direcionada de imagens faciais da internet ou de câmeras de vigilância para criar bancos de dados de reconhecimento facial.
Reconhecimento de emoções: Proíbe o uso de reconhecimento de emoções no local de trabalho e em instituições educacionais.
Pontuação social: Proíbe sistemas de pontuação social baseados no comportamento social ou características pessoais.
Manipulação do comportamento humano: Proíbe sistemas de IA que manipulam o comportamento humano para contornar a livre vontade.
Proibições e direitos dos consumidores: O acordo proíbe práticas como manipulação cognitivo-comportamental, eliminação indiscriminada de imagens faciais e criação de rankings de pontuação social. Também garante aos consumidores o direito de fazer reclamações e receber explicações.
Penalidades por violações: As multas para violações das regras podem variar entre 7,5 milhões de euros e 35 milhões de euros.
- Confira aqui a íntegra do artigo.