O presente artigo traz as conclusões e produtos desenvolvidos no âmbito do projeto de pesquisa de pós-doutorado na USP/IEA/Cátedra Oscar Sala (2022/2023), intitulada "Governança de IA e Epistemologias do Sul: por uma IA democrática e inclusiva – 'fundamental rights, rights by design' ('DFbD')", tendo por objetivo central a elaboração de uma proposta de governança de IA para o Brasil e países do Sul Global, levando em consideração as "Epistemologias do Sul".
Trata-se de uma proposta de governança modular e procedimental, portanto, flexível e alterável diante dos elementos tempo e espaço/contexto, tornando-se, assim, mais apropriada às características da IA e da sociedade contemporânea. Visa-se com isso a reimaginação da tecnologia (Reimagining Technology), por meio da contribuição com a fórmulação de um "framework"1 ("roadmap") para a análise de riscos a direitos fundamentais e direitos humanos (DF/DH) em aplicações de inteligência artificial (IA), envolvendo a etapa/procedimento da ponderação, como fundamento para o design ético em IA, isto é, "fundamental rights and human by design" ("DFbD"), para se poder alcançar o conceito de "justiça de design", "justiça algorítmica" e também para a elaboração de documentos de "compliance", em especial, a AIIA – Avaliação de impacto algorítmico.
A recomendação executiva poderá ser utilizada como uma espécie de "sandbox", tal como prevê a Estratégia de Inteligência Artificial, com destaque para o uso ético dos algoritmos, e para a responsabilidade algorítmica. A pesquisa parte da análise da Teoria dos Direitos Fundamentais, e da fórmula matemática da ponderação segundo R. Alexy, bem como a proposta de M. Susi para aplicá-la, com ajustes, em conflitos "online", visando propor uma alternativa e uma revisitação dos elementos da referida fórmula matemática, em ambas as versões, para contextos de IA ("online" e "off-line").
A fórmula da ponderação "revisitada" poderá ajudar a garantir maior transparência, explicabilidade, responsabilidade e contestabilidade, garantindo o que se tem denominado de "contestability by design (CbD)", mais amplo do que a garantia apenas do direito de revisão humana, por garantir a intervenção humana nas diferentes etapas e durante o processo de desenvolvimento do sistema (design participativo).
Da mesma forma, poderá ser englobada como dentro da análise de colisão de direitos fundamentais, quando da elaboração de instrumentos de "compliance" como a ALI, o DPIA e a AII, demonstrando a boa-fé, transparência, prevenção, para com a legislação e melhores recomendações práticas por órgãos especializados, aumentando o nível de transparência, segurança, responsabilização, prestação de contas e confiança, logo, sua sustentabilidade.
A presente abordagem de "DFbD" poderá, pois, complementar os processos de "due diligence" dos direitos humanos/fundamentais/proteção de dados/IA, fornecendo um caminho estruturado para o desenvolvimento prático dos requisitos de design – "DFbD", bem como para a elaboração adequada da AIIA - avaliação de impacto algorítmico com base em DF. A governança de IA para o Brasil vem qualificada de "governança antropofágica", no sentido de autóctone, enraizada no solo tropical do Brasil, levando em consideração sua realidade histórica e características sócio-culturais, ao mesmo tempo que é atualizada com os desenvolvimentos internacionais, em uma abordagem que seja holística e democrática, a qual mais se coaduna com as características da IA em sua origem (cibernética). Isso se dá em uma perspectiva não eurocêntrica, mas multicultural, de modo a alcançar uma justiça algorítmica democrática e inclusiva.
- Clique aqui e confira a coluna na íntegra.
__________
1 Há diversas abordagens variadas em teoria para AIAs mas apenas um modelo atual de AIA existe na prática, autorizado pela Diretiva do Secretariado do Tesouro do Canadá sobre Tomada de Decisão Automatizada. Para implementar os princípios éticos da IA, as empresas tomaram medidas, incluindo: a realização de avaliações do impacto dos direitos humanos sobre as tecnologias emergentes, medidas para impulsionar a colaboração e o diálogo através da indústria e de plataformas multi-stakeholder, criação de estruturas de governança, tais como comitês de revisão interna. *A Intel e a Microsoft estão entre as empresas que realizaram avaliações do impacto dos direitos humanos sobre as tecnologias emergentes. Para a revisão de riscos a Microsoft criou a estrutura de governança interna para identificar e rever os riscos, conhecida como a Comissão AETHER.