Migalhas de Peso

Equilibrando o poder da Inteligência Artificial: uma reflexão sobre governança estatal e paradoxos futuros

O século XXI traz desafios e oportunidades sem precedentes, e a IA está no centro dessa transformação.

28/8/2023

Estamos em 2035, e a presença da inteligência artificial é ubíqua. Sistemas de IA gerenciam hospitais, operam companhias aéreas e até litigam em tribunais. A produtividade atingiu patamares inéditos, e empresas previamente inimagináveis estão crescendo rapidamente, impulsionando avanços significativos no bem-estar. Novos produtos, curas e inovações são lançados diariamente, à medida que a ciência e a tecnologia continuam a avançar. No entanto, essa era de progresso também traz consigo uma crescente imprevisibilidade e fragilidade, à medida que terroristas exploram armas cibernéticas inteligentes e em constante evolução para ameaçar a sociedade, e os trabalhadores de escritório enfrentam uma perda massiva de empregos.

Apenas um ano atrás, essa visão teria parecido ficção, mas hoje, parece inevitável. Os sistemas de IA generativa já superam muitos humanos em clareza e persuasão na escrita, além de criarem imagens originais, arte e até mesmo código de computador com base em instruções linguísticas simples. Contudo, a IA generativa é apenas a ponta do iceberg. Sua ascensão marca um momento crucial, o início de uma revolução tecnológica que remodelará o mundo, redefinindo política, economia e sociedade.

Assim como nas ondas tecnológicas anteriores, a IA trará crescimento e oportunidades notáveis, mas também acarretará interrupções e riscos significativos. No entanto, ao contrário das ondas passadas, essa revolução também desencadeará uma transformação radical na estrutura e no equilíbrio do poder global, ameaçando a posição dos estados-nação como os principais atores geopolíticos. Quer seja admitido ou não, os criadores da IA são, por si só, atores geopolíticos, solidificando sua soberania sobre a IA e contribuindo para a emergência de uma nova ordem "tecnopolar", na qual empresas de tecnologia exercem um poder antes reservado aos estados-nação. Nos últimos dez anos, as gigantes da tecnologia se tornaram essencialmente atores independentes e soberanos nos domínios digitais que estabeleceram. A IA intensifica essa tendência e a estende muito além do mundo digital. A complexidade tecnológica e a rapidez de seu desenvolvimento tornarão extremamente difícil para os governos estabelecerem regulamentações relevantes a um ritmo adequado. Se não agirem prontamente, talvez não tenham mais essa oportunidade.

Felizmente, formuladores de políticas em todo o mundo estão começando a reconhecer os desafios impostos pela IA e estão enfrentando o dilema de como regulamentá-la. Em maio de 2023, o G-7 lançou o "Processo de IA de Hiroshima", um fórum dedicado à harmonização da governança da IA. No mês seguinte, o Parlamento Europeu aprovou um projeto de Lei de IA da União Europeia, representando o primeiro esforço amplo da UE para estabelecer salvaguardas na indústria de IA. Em julho, o secretário-geral da ONU, Antonio Guterres, instou a criação de um órgão regulador global de IA. Enquanto isso, nos Estados Unidos, políticos de ambos os lados do espectro político estão demandando ação regulatória. No entanto, como bem ressaltou Ted Cruz, senador republicano do Texas, em junho, muitos compartilham a opinião de que o Congresso "não tem a menor ideia do que está fazendo".

Infelizmente, boa parte do debate em torno da governança da inteligência artificial permanece presa em um falso dilema perigoso: utilizar a IA para ampliar o poder nacional ou restringi-la a fim de evitar seus riscos. Mesmo aqueles que identificam o problema com precisão muitas vezes tentam resolvê-lo inserindo a IA em estruturas de governança preexistentes ou históricas. No entanto, a IA não pode ser regulamentada como qualquer tecnologia anterior e já está redefinindo as concepções tradicionais de poder geopolítico.

O desafio é evidente: conceber uma nova estrutura de governança que seja adequada a essa tecnologia singular. Para que a governança global da IA se torne viável, a comunidade internacional deve transcender as noções convencionais de soberania e incluir as empresas de tecnologia no processo. Esses atores podem não derivar legitimidade de um contrato social, democracia ou prestação de bens públicos, mas sem eles, a governança efetiva da IA dificilmente terá chances de sucesso. Isso ilustra como a comunidade internacional deve reconsiderar os pressupostos fundamentais acerca da ordem geopolítica, embora esse não seja o único ponto a ser abordado.

Um desafio tão singular e premente quanto a IA requer uma abordagem inovadora. Antes que os responsáveis pela formulação de políticas possam iniciar o desenvolvimento de uma estrutura regulatória adequada, é crucial que concordem com os princípios fundamentais para governar a IA. Em primeiro lugar, qualquer estrutura de governança precisa ser proativa, ágil, inclusiva, resistente e orientada. A partir desses princípios, os tomadores de decisão devem estabelecer pelo menos três regimes de governança superpostos: um para estabelecer fatos e aconselhar os governos sobre os riscos impostos pela IA, outro para prevenir uma corrida armamentista total entre as nações e um terceiro para gerenciar as forças disruptivas de uma tecnologia que é completamente diferente de tudo o que o mundo já testemunhou.

Quer se goste ou não, o ano de 2035 se aproxima rapidamente. Se ele será caracterizado pelos avanços positivos viabilizados pela IA ou pelas perturbações negativas resultantes dela dependerá das ações tomadas pelos formuladores de políticas no presente.

MAIS RÁPIDO, MAIS ALTO, MAIS FORTE

A inteligência artificial (IA) se distingue—tanto de outras tecnologias quanto pelo impacto que exerce na dinâmica energética. Ela não apenas traz desafios políticos; sua natureza hiperevolucionária dificulta cada vez mais a solução desses desafios. Este é o paradoxo do poder da IA.

O ritmo de avanço é notável. Basta considerar a Lei de Moore, que previu com sucesso a duplicação da capacidade de processamento a cada dois anos. A onda atual de IA faz parecer que esse progresso é quase insignificante. Quando a OpenAI lançou seu primeiro modelo de linguagem de grande escala, o GPT-1, em 2018, ele possuía 117 milhões de parâmetros—uma medida da escala e complexidade do sistema. Cinco anos depois, acredita-se que a quarta geração do modelo da empresa, o GPT-4, contenha mais de um trilhão. A quantidade de poder computacional utilizada para treinar os modelos mais avançados de IA aumentou em uma ordem de magnitude a cada ano na última década. Colocando de forma mais direta, os modelos de IA mais sofisticados hoje—também conhecidos como "modelos de fronteira"—utilizam cinco bilhões de vezes mais poder computacional do que os principais modelos há uma década atrás. O processamento que outrora levava semanas, agora é realizado em questão de segundos. Modelos capazes de lidar com dezenas de trilhões de parâmetros estão prestes a surgir nos próximos dois anos. Modelos de "escala cerebral", contendo mais de 100 trilhões de parâmetros—aproximadamente o número de sinapses no cérebro humano—serão viáveis em cerca de cinco anos.

A cada novo salto, emergem capacidades inesperadas. Poucos previam que o treinamento de texto bruto permitiria a grandes modelos de linguagem criar frases coerentes, novas e até mesmo criativas. Ainda menos previam que modelos de linguagem pudessem compor música ou solucionar problemas científicos, como alguns já são capazes de fazer. Em breve, é provável que desenvolvedores de IA alcancem sistemas com capacidades de autoaperfeiçoamento—um marco crítico na trajetória dessa tecnologia, que deve dar a todos razões para refletir.

Os modelos de IA também estão fazendo mais com menos. Recursos de última geração são agora utilizados em sistemas menores, mais acessíveis e mais econômicos. Apenas três anos após o lançamento do GPT-3 pela OpenAI, equipes de código aberto criaram modelos capazes de desempenho equivalente, que são menores em uma sexagésima parte do tamanho—ou seja, 60 vezes mais econômicos de operar em produção, completamente gratuitos e disponíveis na internet. É provável que futuros modelos de linguagem sigam essa tendência de eficiência, tornando-se acessíveis em forma de código aberto apenas dois ou três anos após os principais laboratórios de IA terem investido centenas de milhões de dólares em seu desenvolvimento.

Diferente de muitas tecnologias, os algoritmos de IA são mais fáceis e baratos de copiar, compartilhar (ou roubar) do que ativos físicos. Os riscos de proliferação são evidentes. O poderoso modelo de linguagem Llama-1 da Meta, por exemplo, vazou na internet poucos dias após seu lançamento em março. Embora modelos altamente poderosos ainda exijam hardware sofisticado para operar, versões intermediárias podem ser executadas em computadores alugados por alguns dólares por hora. Em breve, esses modelos poderão ser executados em smartphones. Nenhuma tecnologia tão poderosa jamais se tornou tão acessível, disseminada e rapidamente disponível.

A IA também se diferencia das tecnologias mais antigas, pois a maioria de suas aplicações pode ser caracterizada como "uso duplo"—com aplicações tanto militares quanto civis. Muitos sistemas são inerentemente versáteis, sendo a versatilidade o objetivo principal de muitas empresas de IA. Seus aplicativos visam ajudar o maior número possível de pessoas em diversos aspectos. No entanto, os mesmos sistemas que dirigem carros podem controlar tanques. Um aplicativo de IA desenvolvido para diagnóstico de doenças pode também criar—e usar como arma—novas doenças. As linhas entre uso civil seguro e destrutivo militar são difusas, o que em parte explica a restrição dos Estados Unidos à exportação de semicondutores avançados para a China.

Tudo isso acontece em um cenário global: uma vez lançados, os modelos de IA têm o potencial de estar em todos os lugares. A presença de apenas um modelo prejudicial ou de "quebra" pode causar danos significativos. Por isso, a regulamentação da IA não pode ser feita de forma fragmentada. Regular a IA em alguns países tem pouco valor se ela permanecer sem regulação em outros. Dado que a IA pode se disseminar tão rapidamente, sua governança não pode apresentar lacunas.

Ademais, os danos que a IA pode causar não têm limites claros, mesmo que os incentivos para construí-la (e os benefícios resultantes) continuem a aumentar. A IA pode ser usada para gerar e disseminar desinformação prejudicial, minando a confiança social e a democracia; para vigiar, manipular e subjugar cidadãos, restringindo a liberdade individual e coletiva; ou para criar armas digitais ou físicas poderosas que ameacem vidas humanas. A IA também poderia eliminar milhões de empregos, agravar desigualdades existentes e criar novas; perpetuar padrões discriminatórios e distorcer a tomada de decisão ao amplificar ciclos de feedback com base em informações errôneas; ou desencadear escaladas militares não intencionais e incontroláveis que levem a conflitos armados.

Além disso, o prazo para os maiores riscos não é claro. A desinformação online é uma ameaça iminente, e a guerra autônoma parece plausível em um futuro próximo. À medida que olhamos mais adiante, paira a promessa da inteligência artificial geral, o ponto incerto em que a IA supera o desempenho humano em qualquer tarefa, e o perigo (ainda especulativo) de que a IA geral possa se tornar autônoma, auto-replicante e auto-aperfeiçoadora além do controle humano. Todos esses riscos precisam ser considerados na formulação da arquitetura de governança desde o início.

A IA não é a primeira tecnologia a possuir algumas dessas características impactantes, mas é a primeira a reunir todas elas. Os sistemas de IA não se assemelham a carros ou aviões, que podem ser gradualmente aprimorados em termos de hardware e cujas falhas mais graves resultam em acidentes individuais. Também não se assemelham a armas químicas ou nucleares, cujo desenvolvimento, armazenamento e compartilhamento são caros e difíceis, para não mencionar sigilosos. À medida que seus enormes benefícios se tornam cada vez mais evidentes, os sistemas de IA crescem em tamanho, eficiência, acessibilidade e onipresença. Eles também podem alcançar níveis de quase autonomia, capazes de atingir metas concretas com pouca supervisão humana, e, potencialmente, aprimorarem-se. Cada um desses atributos desafia os modelos tradicionais de governança; combinados, tornam esses modelos inadequados em última instância.

POTÊNCIA INCONTROLÁVEL

A inteligência artificial (IA) não apenas introduz uma nova dinâmica, mas também complica o contexto político em que é regulamentada, ao transformar completamente o conceito de poder. A IA não é meramente um desenvolvimento de software comum; ela representa um novo meio de projetar poder. Em algumas instâncias, ela irá desafiar as autoridades existentes; em outras, reforçá-las. Além disso, seu avanço é motivado por incentivos irresistíveis: todas as nações, corporações e indivíduos desejam algum nível de envolvimento com ela.

Dentro dos países, a IA capacitará aqueles que a controlam a monitorar, enganar e até mesmo controlar as populações—explorando a coleta e o uso comercial de dados pessoais nas democracias, enquanto aprimora as ferramentas de repressão utilizadas por governos autoritários para subjugar suas sociedades. Em todos os países, a IA será alvo de uma competição geopolítica intensa. Seja por suas capacidades repressivas, potencial econômico ou vantagens militares, conquistar a supremacia na IA será um objetivo estratégico de qualquer governo que possua os recursos para competir. Estratégias menos imaginativas envolverão investimentos financeiros em campeões locais de IA ou tentativas de construir e controlar supercomputadores e algoritmos. Estratégias mais diferenciadas buscarão vantagens competitivas específicas, como a França ao apoiar diretamente startups de IA; o Reino Unido ao capitalizar suas universidades de renome e ecossistema de capital de risco; e a União Europeia ao influenciar a discussão global sobre regulamentação e normas.

A grande maioria dos países não possui o dinheiro ou o conhecimento técnico para competir pela liderança em IA. Em vez disso, seu acesso à IA de ponta será determinado pelos seus relacionamentos com um seleto grupo de corporações e estados já ricos e poderosos. Essa dependência ameaça agravar os atuais desequilíbrios geopolíticos de poder. Os governos mais poderosos competirão para controlar o recurso mais valioso do mundo, enquanto, mais uma vez, os países do Sul Global correm o risco de ficar para trás. Isso não significa que apenas os mais ricos colherão os benefícios da revolução da IA. Similarmente à internet e aos smartphones, a IA se disseminará sem se importar com fronteiras, assim como os ganhos de produtividade que ela desencadeará. E, assim como a energia e a tecnologia verde, a IA beneficiará muitos países que não a controlam, incluindo aqueles que contribuem para a produção dos componentes da IA, como semicondutores.

Por outro lado, a competição pela supremacia na IA será intensa em um espectro geopolítico diferente. Após o término da Guerra Fria, países poderosos poderiam ter colaborado para aliviar os temores uns dos outros e evitar uma corrida armamentista tecnológica potencialmente desestabilizadora. Contudo, o atual ambiente geopolítico tenso dificulta essa cooperação. A IA não é apenas mais uma ferramenta ou arma que pode trazer prestígio, poder ou riqueza. Ela tem o potencial de conferir uma vantagem militar e econômica significativa sobre os adversários. Certo ou errado, os dois principais atores—China e Estados Unidos—enxergam o desenvolvimento da IA como um jogo de soma zero, em que o vencedor ganhará uma vantagem estratégica decisiva nas próximas décadas.

Para Washington e Pequim, o risco de o outro lado obter uma vantagem na IA supera quaisquer riscos teóricos que a tecnologia possa representar para a sociedade ou para sua própria autoridade política interna. Por isso, os governos dos EUA e da China estão investindo recursos substanciais para desenvolver capacidades de IA, ao mesmo tempo em que trabalham para privar um ao outro dos recursos necessários para avanços futuros. (Até o momento, os EUA têm tido mais sucesso do que a China nesse aspecto, especialmente com seus controles de exportação de semicondutores avançados.) Essa dinâmica de soma zero—e a falta de confiança mútua—significa que Pequim e Washington estão concentrados em acelerar o desenvolvimento da IA, ao invés de desacelerá-lo. Na perspectiva deles, uma "pausa" no desenvolvimento para avaliar riscos, conforme proposto por alguns líderes da indústria de IA, seria equivalente a um desarmamento unilateral tolo.

No entanto, essa perspectiva pressupõe que os estados possam afirmar e manter algum grau de controle sobre a IA. Isso pode ser verdadeiro na China, que integrou suas empresas de tecnologia à estrutura estatal. No entanto, no Ocidente e em outros lugares, é mais provável que a IA enfraqueça o poder do estado em vez de fortalecê-lo. Fora da China, um punhado de grandes empresas especializadas em IA atualmente controla todos os aspectos dessa nova onda tecnológica: o que os modelos de IA podem fazer, quem pode acessá-los, como eles podem ser usados e onde podem ser implantados. E, como essas empresas protegem rigorosamente seu poder de processamento e algoritmos, somente elas compreendem a maior parte do que estão criando e o potencial dessas criações. Essas poucas empresas podem manter sua vantagem no futuro previsível—ou podem ser superadas por diversos atores menores, à medida que barreiras baixas de entrada, desenvolvimento de código aberto e custos marginais quase nulos levam à disseminação descontrolada da IA. De qualquer forma, a revolução da IA acontecerá fora do controle governamental.

Em certo grau, alguns desses desafios se assemelham aos das tecnologias digitais anteriores. Plataformas de internet, redes sociais e até mesmo dispositivos como smartphones operam, até certo ponto, em ambientes controlados por seus criadores. Quando os governos demonstram a vontade política necessária, conseguem implementar regimes regulatórios para essas tecnologias, como o Regulamento Geral de Proteção de Dados da União Europeia, a Lei de Mercados Digitais e a Lei de Serviços Digitais. No entanto, esses regulamentos demoraram uma década ou mais para serem concretizados na União Europeia e ainda não estão completamente implementados nos Estados Unidos. A IA avança em ritmo rápido demais para que os formuladores de políticas respondam da maneira habitual. Além disso, as redes sociais e outras tecnologias digitais mais antigas não têm a capacidade de criar a si mesmas, e os interesses comerciais e estratégicos que as impulsionam não se alinham da mesma maneira: o Twitter e o TikTok são influentes, mas poucos acreditam que possam transformar a economia global.

Tudo isso significa que, pelo menos nos próximos anos, o curso da IA será em grande parte definido pelas decisões de um punhado de empresas privadas, independentemente das ações de formuladores de políticas em Bruxelas ou Washington. Em outras palavras, serão os tecnólogos, não os formuladores de políticas ou burocratas, que exercerão autoridade sobre uma força capaz de alterar profundamente o poder dos estados-nação e suas relações globais. Isso torna o desafio de regulamentar a IA diferente de tudo que os governos enfrentaram anteriormente—um ato de equilíbrio regulatório delicado e elevado, sem precedentes na história da política.

ALVO EM MOVIMENTO, ARMA EM EVOLUÇÃO  

Os governos estão atualmente ficando para trás na corrida para regulamentar a inteligência artificial (IA). Muitas propostas de regulação da IA tratam-na como um problema convencional que pode ser resolvido por meio de soluções centradas no Estado, baseadas em regras acordadas por líderes políticos. No entanto, essa abordagem não será eficaz para regular a IA.

Os esforços de regulamentação até o momento são incipientes e insuficientes. A Lei de IA da União Europeia é a tentativa mais ambiciosa de regular a IA em qualquer jurisdição, mas sua implementação completa está programada apenas para 2026, quando os modelos de IA já terão evoluído significativamente. O Reino Unido propôs uma abordagem ainda mais flexível e voluntária para a regulação da IA, mas essa abordagem carece de autoridade real. Nenhuma dessas iniciativas está buscando regulamentar o desenvolvimento e a implementação da IA em escala global, o que será crucial para uma regulação eficaz da IA. Além disso, embora promessas voluntárias de aderir às diretrizes de segurança da IA sejam bem-vindas, elas não substituem a necessidade de regulamentação nacional e internacional legalmente vinculativa.

A analogia frequentemente utilizada para regulamentar a IA é o modelo de controle de armas nucleares. No entanto, os sistemas de IA são muito mais fáceis de desenvolver, copiar e roubar do que armas nucleares, e eles estão sob o controle de empresas privadas, não governos. À medida que a próxima geração de modelos de IA se espalha mais rapidamente do que nunca, a comparação com armas nucleares se torna cada vez menos aplicável. Mesmo que os governos possam controlar o acesso aos materiais necessários para construir os modelos mais avançados de IA, como os chips, eles têm pouco poder para impedir a disseminação desses modelos após o treinamento, uma vez que eles exigem menos recursos para operar.

Para que a governança global da IA funcione, ela deve ser adaptada à natureza específica da tecnologia, aos desafios que ela apresenta e à estrutura de poder em que opera. No entanto, devido à evolução imprevisível, usos, riscos e recompensas da IA, a governança da IA não pode ser completamente especificada desde o início ou em qualquer momento. Deve ser tão inovadora e evolutiva quanto a própria tecnologia, compartilhando algumas das características que tornam a IA tão poderosa. Isso requer uma abordagem completamente nova e a reconstrução de um novo quadro regulatório a partir do zero.

O objetivo geral de uma arquitetura regulatória global para a IA é identificar e mitigar os riscos à estabilidade global sem sufocar a inovação e as oportunidades da IA. Isso poderia ser chamado de "tecnoprudencialismo", um termo que se assemelha ao papel macroprudencial desempenhado por instituições financeiras globais, como o Conselho de Estabilidade Financeira, o Banco de Compensações Internacionais e o Fundo Monetário Internacional. Assim como o objetivo do macroprudencialismo é identificar e mitigar riscos à estabilidade financeira global sem comprometer o crescimento econômico, o tecnoprudencialismo visa identificar e mitigar riscos à estabilidade global da IA.

Um enfoque tecnoprudencial funcionaria criando mecanismos institucionais para lidar com diferentes aspectos da IA que poderiam ameaçar a estabilidade geopolítica. Esses mecanismos seriam orientados por princípios comuns adaptados às características únicas da IA e ao novo equilíbrio de poder tecnológico, no qual as empresas de tecnologia têm um papel de destaque. Esses princípios seriam usados para elaborar estruturas regulatórias detalhadas à medida que a IA evolui e se torna mais disseminada.

O primeiro princípio fundamental da governança da IA é a precaução. Dado o perfil de risco-recompensa assimétrico da IA, a precaução é crucial para evitar danos catastróficos. A governança da IA deve priorizar a prevenção de riscos antes que eles se materializem, dada a incerteza sobre a escala e a irreversibilidade dos possíveis danos da IA. A responsabilidade de garantir a segurança de sistemas de IA deve recair sobre os desenvolvedores e proprietários, não apenas sobre os governos.

Além da precaução, a governança da IA deve ser ágil para se adaptar às rápidas mudanças tecnológicas. A velocidade do progresso tecnológico sobrecarregará estruturas de governança estáticas, tornando necessária uma abordagem adaptável e ágil.

A governança da IA também deve ser inclusiva, envolvendo uma variedade de atores, incluindo empresas de tecnologia. Dado que as empresas privadas de tecnologia exercem poder no espaço digital, sua participação é crucial. No entanto, a governança deve ser direcionada e ágil para se adaptar a diferentes tipos de riscos e contextos de aplicação. Isso requer um profundo conhecimento das tecnologias envolvidas e a capacidade de auditar sistemas de IA.

A governança da IA deve ser abrangente, cobrindo toda a cadeia de suprimentos, desde a fabricação até a implementação. Além disso, deve ser impermeável para evitar falhas na regulamentação e vazamentos de sistemas mal governados.

Para que a governança da IA seja eficaz, é necessário um esforço global, multissetorial e inovador. A IA é um problema de bens comuns globais, e a regulamentação da IA deve ser adaptada à sua natureza e aos seus desafios únicos.

A governança da IA é uma tarefa complexa que exige uma abordagem adaptativa, colaborativa e ágil. O campo da inteligência artificial está evoluindo rapidamente, e os desafios que ela coloca para a sociedade, a política e a segurança global são significativos. Portanto, a regulamentação da IA não pode ser moldada por abordagens tradicionais de regulação e acordos internacionais, que muitas vezes são lentos e rígidos demais para acompanhar as inovações tecnológicas.

A proposta do "tecnoprudencialismo" traz uma perspectiva interessante para abordar a governança da IA. A precaução é fundamental, considerando a assimetria entre os riscos e recompensas da IA. No entanto, a abordagem não deve sufocar a inovação. A flexibilidade é necessária para se adaptar às mudanças rápidas e imprevisíveis nesse campo.

A inclusão de diversos atores é crucial. A colaboração entre governos, empresas de tecnologia, cientistas, éticos, organizações da sociedade civil e outros é fundamental para desenvolver uma regulamentação eficaz e equilibrada. A governança da IA não pode ser exclusivamente centrada no Estado, pois as empresas de tecnologia desempenham um papel importante na criação, desenvolvimento e implementação da tecnologia.

No entanto, encontrar o equilíbrio certo entre a inclusão de várias partes interessadas e a autoridade regulatória é um desafio. A presença de empresas de tecnologia na criação de regras deve ser equilibrada para evitar a captura regulatória que possa servir apenas aos interesses comerciais.

A governança da IA também deve ser granular e direcionada, reconhecendo que diferentes aplicações e usos da IA apresentam diferentes riscos. Isso exige um entendimento profundo das tecnologias subjacentes e a capacidade de avaliar e auditar sistemas de IA em várias etapas da cadeia de suprimentos.

Em última análise, a governança global da IA é um desafio urgente que exige uma abordagem inovadora e adaptativa. A IA está moldando nosso mundo de maneiras profundas e complexas, e sua regulação eficaz determinará como ela contribuirá para o progresso humano e para a estabilidade global. O desenvolvimento de uma estrutura regulatória para a IA deve ser guiado por princípios que equilibrem a precaução, a inovação, a inclusão e a adaptabilidade.

PROMOVA O MELHOR, EVITE O PIOR

A implementação das soluções discutidas não será uma tarefa fácil. Apesar das conversas e discursos dos líderes mundiais sobre a necessidade de regular a inteligência artificial (IA), a vontade política real para fazer isso ainda é escassa. A inércia prevalece, uma vez que poucos eleitores poderosos estão atualmente a favor de restringir a IA. No entanto, se for bem projetada, uma estrutura de governança de IA conforme a descrita aqui poderia ser aceitável para todas as partes interessadas, estabelecendo princípios e estruturas que incentivam o melhor uso da IA e evitam os piores cenários. A alternativa, que envolve a IA não regulamentada, não apenas traria riscos inaceitáveis para a estabilidade global, mas também seria prejudicial para os negócios e contraproducente para os interesses nacionais de todos os países.

Um regime robusto de governança de IA teria o potencial de mitigar os riscos sociais associados à IA e reduzir as tensões entre países, como China e Estados Unidos, diminuindo a transformação da IA em uma arena de competição geopolítica. Além disso, tal regime teria implicações mais profundas e duradouras: estabeleceria um modelo para lidar com outras tecnologias disruptivas e emergentes. A IA é um catalisador único para a mudança, mas está longe de ser a última tecnologia disruptiva que a humanidade enfrentará. Tecnologias como a computação quântica, biotecnologia, nanotecnologia e robótica também têm o potencial de redefinir fundamentalmente o mundo. O sucesso na governança da IA serviria como um exemplo para enfrentar com sucesso essas futuras tecnologias.

O século XXI traz desafios e oportunidades sem precedentes, e a IA está no centro dessa transformação. No século passado, os formuladores de políticas começaram a construir uma arquitetura de governança global que estava alinhada com os desafios daquela época. Agora, eles estão confrontados com a necessidade de construir uma nova arquitetura de governança capaz de abordar e tirar proveito da força mais poderosa e potencialmente definidora desta era. O ano de 2035 está se aproximando rapidamente, e não há tempo a perder. A construção de uma estrutura regulatória eficaz para a IA é um desafio urgente que requer cooperação global, inovação e uma abordagem proativa para moldar o futuro da inteligência artificial.

______________ 

*O texto acima, é uma releitura do texto original The AI Power Paradox de Ian Bremmer and Mustafa Suleyman

______________ 

BREMMER, I.; SULEYMAN, M. The AI Power Paradox. Disponível em: https://www.foreignaffairs.com/world/artificial-intelligence-power-paradox?check_logged_in=1&utm_medium=promo_email&utm_source=lo_flows&utm_campaign=registered_user_welcome&utm_term=email_1&utm_content=20230827. Acesso em: 27 ago. 2023.

Thiago Ferrarezi
Advogado, Contador e Engenheiro de Produção. Especialista em Direito do Estado (UFRGS). Mestre em Gestão e Políticas Públicas (FGV). Doutorando em TIDD com foco em Inteligência Artificial (PUCSP).

Veja mais no portal
cadastre-se, comente, saiba mais

Artigos Mais Lidos

Decisão importante do TST sobre a responsabilidade de sócios em S.A. de capital fechado

20/12/2024

Planejamento sucessório e holding patrimonial: Cláusulas restritivas societárias

20/12/2024

As perspectivas para o agronegócio brasileiro em 2025

20/12/2024

A sua empresa monitora todos os gatilhos e lança as informações dos processos trabalhistas no eSocial?

20/12/2024

O futuro dos contratos: A tecnologia blockchain e o potencial dos smart contracts no Brasil

20/12/2024