No dia 30/10/23, o G7 — formado por algumas das economias mais influentes do mundo, como Alemanha, Canadá, Estados Unidos, França, Itália, Japão e Reino Unido — deu um importante passo no caminho da regulação da IA - Inteligência Artificial. O grupo alcançou um acordo sobre um Código de Conduta voltado às empresas que estão na linha de frente da expansão de sistemas inteligentes.
Esse documento traz 11 medidas centrais para orientar e assegurar que essa tecnologia, tão promissora e transformadora em áreas como saúde, educação e direito, seja desenvolvida e utilizada de forma ética e segura, diminuindo os riscos e evitando o uso inadequado que poderia surgir com seu avanço acelerado.
Código de Conduta para IA
O mundo já tem aproveitado muitos dos benefícios que a Inteligência Artificial oferece, mas ainda enfrenta desafios significativos devido à falta de diretrizes claras para seu uso. É justamente por isso que esse novo Código de Conduta representa um avanço tão notável— ele cria um caminho para que essa inovação continue a crescer dentro dos parâmetros ideais.
As 11 diretrizes estabelecidas no código deixam claro que as instituições que desenvolvem IA precisam adotar procedimentos cuidadosos desde o início do processo de criação até a entrega final dos produtos para os usuários. A proposta é simples e direta: reconhecer, avaliar e mitigar os riscos em cada fase do ciclo do sistema.
Com a implementação desse código, as empresas agora têm o dever de garantir que seus produtos sigam as melhores práticas em termos de segurança, governança e transparência. Além disso, elas devem se comprometer a publicar relatórios regularmente, permitindo ao público entender melhor as capacidades e limitações desses meios.
O código também exige que as organizações sejam proativas na identificação de possíveis incidentes ou vulnerabilidades, tomando medidas rápidas para corrigir falhas e minimizar ameaças. Assim, ajuda a evitar que tecnologias emergentes causem danos, seja por falhas técnicas, uso inadequado ou questões morais, promovendo uma ferramenta mais protegida para todos.
Identificando conteúdos gerados por IA
Um dos pontos relevantes do novo Código de Conduta do G7 é a necessidade de rotulagem para conteúdos gerados pela computação cognitiva. Nos últimos anos, várias plataformas já começaram a dar passos nessa direção, reconhecendo a importância de sinalizar quando um material é manipulado ou criado por IA.
Um bom exemplo é o TikTok, que em 2023 introduziu novas políticas para rotular vídeos modificados pelo sistema inteligente em um esforço para tornar tudo mais transparente e ajudar as pessoas a entenderem melhor como essa tecnologia está sendo usada — e, em alguns casos, mal utilizada — na internet.
O TikTok foi além e passou a colaborar com a C2PA - Coalizão para Proveniência e Autenticidade de Conteúdo, utilizando ferramentas que escaneiam os vídeos à procura de indícios de IA. Quando algo é detectado, esses vídeos são sinalizados diretamente no feed, fornecendo ao usuário informações claras sobre o que ele está consumindo. Isso ajuda a criar uma experiência mais confiável, especialmente em tempos em que a autenticidade está cada vez mais em debate.
Regulamentação da IA
O Brasil, embora ainda esteja em fase de regulamentação da Inteligência Artificial, já começou a dar passos significativos nesta jornada. Em maio de 2023, foi apresentado o PL 2338/23, que traz normas gerais para o desenvolvimento, implementação e uso de sistemas inteligentes no país. Esse projeto segue exemplos internacionais, como o AI Act da União Europeia, criado para proteger direitos fundamentais, garantir proteção e promover o progresso científico e tecnológico de forma sustentável.
Uma das grandes preocupações do projeto brasileiro é certificar que a inovação seja usada de maneira responsável, sempre respeitando princípios éticos e assegurando que essa solução digital beneficie as pessoas e fortaleça o regime democrático.
Assim como o Código de Conduta do G7, o PL 2338/23 busca equilibrar modernidade e compromisso, proporcionando que o Brasil avance no campo sem abrir mão da estabilidade e privacidade dos cidadãos. Embora ainda seja apenas um projeto de lei, sem validade legal no momento, é importante que essas discussões estejam ocorrendo para regulamentar essas evoluções de forma adequada.
Inteligência Artificial no setor jurídico
No setor legal, essas condutas e regulamentações vão contribuir notavelmente para a aplicação responsável da IA no dia a dia, ajudando a deixar claro que ela não veio para substituir o advogado, mas sim para auxiliá-lo. Tanto as lawtechs quanto as legaltechs atuam como otimizadores do trabalho legal, automatizando tarefas repetitivas e burocráticas, como a revisão de contratos e a análise de documentos legais.
Com a sistematização dessas atividades, os escritórios ganham mais tempo para se dedicarem a funções mais empáticas e estratégicas, como a elaboração de abordagens, a construção de relacionamentos com clientes e a criação de soluções criativas para casos mais complexos. A computação cognitiva, portanto, é um recurso que aumenta o desempenho e permite que os profissionais do direito foquem no que realmente importa: o pensamento crítico, a tomada de decisões e o aconselhamento judicial. Dessa forma, a ferramenta age como um colaborador para a rotina legal.
Ao enxergar o potencial dessas inovações, os advogados podem perceber a IA como uma grande aliada, e não com preocupação sobre o destino de suas carreiras. A tecnologia, quando bem implementada, fortalece a capacidade dos profissionais de oferecer um serviço de alta qualidade, enquanto reduz o tempo gasto em funções procedimentais.
Inteligência Artificial ética: um futuro confiável e eficiente
A regulamentação da IA representa um novo capítulo no desenvolvimento tecnológico, onde evolução e compromisso caminham lado a lado. O Código de Conduta do G7 e iniciativas como o PL 2338/23 são passos relevantes para garantir que a Inteligência Artificial seja aplicada de maneira ética e segura, beneficiando tanto empresas quanto indivíduos.
Conforme essas normas começam a moldar o uso da computação cognitiva, fica evidente que o objetivo não é limitar o avanço, mas criar um ambiente de confiança e transparência, onde seu potencial pode ser explorado ao máximo sem comprometer a proteção e os direitos dos cidadãos.
O impacto já pode ser sentido em áreas como o setor jurídico, aonde o sistema inteligente facilita o trabalho e otimiza a maneira como os profissionais atuam. Assim, estamos diante de um futuro em que essa inovação será uma parceira indispensável, contribuindo para um mundo mais eficiente e conectado.