FGV Direito SP publica framework para Comitês de Ética em IA
O estudo foi desenvolvido com parte de um programa de governança e gestão de riscos, seguindo as tendências regulatórias da Europa, EUA e no Brasil.
Da Redação
quinta-feira, 15 de junho de 2023
Atualizado em 14 de junho de 2023 17:34
O CEPI - Centro de Ensino e Pesquisa em Inovação da FGV Direito SP realizou uma pesquisa para entender o papel dos Comitês de Ética na governança e na gestão de riscos dos projetos que se utilizam de técnicas de inteligência artificial nas organizações.
Com o avanço do uso desse tipo de tecnologia por todo o mercado e pela sociedade em geral, especialmente após o lançamento de soluções como o ChatGPT, o processo de regulação do uso da Inteligência Artificial tem se intensificado no mundo. A Europa aprovou em maio o texto final do seu AI Act, que vai para votação em plenário em Junho.
Nos EUA, a Casa Branca publicou a minuta de AI Bill of Rights (2022), e a última reunião do G7 realizada no Japão colocou o tema como central, instituindo uma agenda focada nessa temática. No Brasil, após a publicação do relatório da Comissão de Juristas instituída pelo Senado, o texto virou o PL 2.338/23, que promete muita discussão no segundo semestre.
Entre todas essas iniciativas, um ponto comum é que a utilização de IA é muito contextual, e que não se deve regular a tecnologia, mas sim o seu impacto nas pessoas e na sociedade. Isso tem levado à adoção de um modelo de regulação baseada em risco, com uma série de obrigações de governança e compliance para as organizações que oferecerem soluções classificadas como de alto risco, especialmente ligadas a área da saúde, educação, recursos humanos, setor financeiro, entre outras.
Mais do que oferecer filmes, propagandas ou músicas, a preocupação é o avanço dessas soluções para a escolha de candidatos para uma vaga de emprego, de seu atendimento no sistema de saúde ou ainda para o crédito, especialmente em relação aos aspectos éticos e discriminatórios.
A pauta ganhou força nos últimos anos com as políticas ESG, já que muitas das discussões sobre diversidade ("S") terão a ver com vieses indesejados refletidos nesses sistemas, e a governança ("G") é o caminho para mitigar os riscos reputacionais e jurídicos das organizações e seus gestores, que estão em jogo nesse ambiente em rápida expansão.
Nesse contexto, a busca pela aplicação de princípios de transparência e explicabilidade requer um olhar sobre todo o ciclo de vida de desenvolvimento, desde os dados utilizados para treinamento, a tecnologia escolhida, a análise das saídas e resultados, entre diversos outros fatores, e os Comitês de Ética, AI Advisory Boards, ou AI Advisory Panels, com têm sido chamados pelas organizações, são peças fundamentais para entender todos esses riscos e discutir os dilemas éticos envolvidos.
Para Alexandre Zavaglia, um dos líderes da pesquisa, além das discussões regulatórias, existe um movimento mundial chamado Responsible AI, para discutir o papel das organizações no uso ético e responsável da inteligência artificial, e como criar projetos que respeitem os conceitos de sustentabilidade corporativa (ESG) e mitiguem os impactos negativos do uso dessa tecnologia na vida das pessoas.
"Para se beneficiar de toda essa tecnologia, é preciso criar um ambiente de prevenção e controle desses riscos", e montar "um time multidisciplinar para entender todos esses aspectos e tomar as decisões relacionadas à sua efetiva implantação em cada organização, seja em projetos de desenvolvimento próprio, ou pela utilização de tecnologia de terceiros."
Guilherme Klafke, que também liderou esse projeto, afirma que foram analisados 23 importantes comitês de ética existentes no mundo até esse momento, para entender os pilares principais para sua implementação, desde a sua finalidade, estrutura, composição, seus poderes e processo decisório.
"Esse framework ajuda a navegar de acordo com a realidade e o contexto de cada organização, desde a criação de estruturas informais e focadas em analisar um tipo de solução pontual, como o uso de IA no RH, até ambientes mais organizados em empresas em que tem avançado IA no core do negócio, como no caso dos bancos digitais e grandes empresas da área da saúde."
Para Marina Feferbaum, coordenadora geral do CEPI, diz que "esse é um dos estudos mais completos já realizados sobre, e o Framework terá grande repercussão nacional e internacional, como uma colaboração para as discussões regulatórias e de boas práticas que tem acontecido em todo o mundo, e auxilia as organizações a entender como aplicar essa lógica de forma prática e didática".
O relatório é fruto da pesquisa "Governança em Inteligência Artificial (IA): framework para a criação de Comitê de Ética para soluções de IA". O projeto é uma iniciativa do CEPI da FGV Direito SP com financiamento de Dasa, B3, FICO e HubMandic.
Clique aqui para conferir a íntegra do relatório.