MIGALHAS DE PESO

  1. Home >
  2. De Peso >
  3. A IA e os desafios na privacidade

A IA e os desafios na privacidade

A fundamental compreensão da intersecção entre IA e privacidade apontam a necessidade da evolução da lei nesta área.

segunda-feira, 4 de março de 2024

Atualizado às 15:54

Daniel J. Solove, em fevereiro de 2024 publicou um artigo intitulado "Artificial Intelligence and Privacy", tema bastante atual devido ao rápido desenvolvimento desta tecnologia. A IA está em constante evolução e tem se tornado um tema cada vez mais presente em nossas vidas. Com o avanço acelerado da IA e sua presença em diversos aspectos da sociedade, como propriedade intelectual, emprego e segurança, surgem também preocupações relacionadas à privacidade.

Já existem leis de privacidade que abordam a IA em certa medida, como o Regulamento Geral de Proteção de Dados - GDPR da UE, que possui algumas disposições específicas sobre o processamento automatizado de dados. Além disso, alguns estados nos Estados Unidos têm leis de privacidade do consumidor que também tratam da automação, embora de forma mais restrita. Novas leis focadas exclusivamente em IA estão surgindo no horizonte, como a AI Act recentemente promulgada pela União Europeia.

A legalidade das leis de privacidade

No entanto, surge uma questão importante: é a lei de privacidade a ferramenta adequada para regular essas questões relacionadas à IA? Ou seria mais adequado ter leis especializadas em IA? Alguns especialistas questionam se a lei de privacidade é apropriada para lidar com a IA, argumentando que especialistas em privacidade não possuem expertise suficiente para tomar decisões políticas sobre temas fora de sua área de atuação. No entanto, embora a lei de privacidade atual seja insuficiente na abordagem dos problemas de privacidade relacionados à IA, uma lei de privacidade bem concebida e constituída pode ser uma ferramenta eficaz para lidar com essas questões.

Para determinar como a lei deve regular a IA e a privacidade, é essencial entender o que é a IA. Atualmente, a IA não se refere mais apenas a robôs com capacidade de pensar e agir como seres humanos, como é retratado em obras de ficção científica. A IA engloba um conjunto de tecnologias, como algoritmos de aprendizado de máquina, que podem executar tarefas que normalmente exigiriam inteligência humana. Portanto, é importante compreendermos que a IA de hoje é uma evolução de tecnologias antigas, mas também um salto significativo em relação ao passado.

Problemas de privacidade com a IA

Os problemas de privacidade causados pela IA são complexos e abrangentes. Eles envolvem tanto a coleta quanto o processamento de dados. Problemas relacionados à coleta de dados incluem o scraping (coleta não consensual de dados online) e outras formas de coleta consensual. Ambas as formas de coleta de dados são pouco abordadas pela maioria das leis de privacidade existentes.

Os problemas de privacidade relacionados ao processamento de dados pela IA envolvem a geração de novos dados, tomada de decisões automatizadas e análise de dados. A geração de dados pela IA pode revelar informações sobre as pessoas que elas não esperam nem desejam revelar. Além disso, a análise de dados pela IA pode ampliar práticas invasivas de vigilância e identificação, aumentando o poder e o controle dos observadores.

Desafios para a regulamentação da IA

A IA apresenta desafios significativos para a supervisão regulatória, participação das partes interessadas e responsabilidade. A transparência é um dos principais desafios, uma vez que os algoritmos de IA são dinâmicos e muitas vezes são de difícil compreensão. A IA também apresenta desafios para o devido processo legal individual, pois a tomada de decisões automatizadas diminui o respeito pela agência humana. Além disso, a IA pode codificar sistematicamente vieses nas decisões, o que pode resultar em discriminação.

A falta de responsabilidade adequada para a IA é outro problema. A fiscalização regulatória muitas vezes é insuficiente devido às grandes recompensas para o desenvolvimento de tecnologias de IA bem-sucedidas, o que pode levar a riscos não controlados. Além disso, a implementação de medidas corretivas para problemas de IA, como a destruição algorítmica, é difícil na prática.

O futuro da privacidade em um mundo dominado pela IA

Em resumo, a IA não representa uma ruptura inesperada para a privacidade; em muitos aspectos, é o futuro que há muito tempo foi previsto. No entanto, a IA destaca claramente as deficiências e abordagens equivocadas das leis de privacidade existentes. A privacidade enfrenta desafios renovados e amplificados com a disseminação e o avanço acelerado da IA.

Para enfrentar esses desafios, é necessário reexaminar e repensar as leis de privacidade existentes. Seja por meio de atualizações nas leis atuais ou pela criação de novas leis, é preciso examinar uma série de questões para abordar os problemas de privacidade causados pela IA. O momento é crucial, pois a IA, mesmo não envolvendo máquinas conscientes, é uma tecnologia imensamente poderosa e transformadora.

Coleta de dados "consensual"

Empresas como Zoom, Google e outras têm modificado suas políticas de privacidade para indicar que os dados dos usuários serão utilizados para o desenvolvimento de algoritmos de IA. No entanto, a mudança de Zoom em sua política de privacidade gerou polêmica e a empresa teve que voltar atrás. Essas práticas de alterar as políticas de privacidade e coletar dados para novos propósitos não são exclusivas da IA, mas são permitidas por muitas leis de privacidade dos EUA.

O Regulamento Geral de Proteção de Dados - GDPR da UE rejeita essa abordagem de "notificação e escolha" e exige um consentimento expresso (opt-in). No entanto, mesmo essa forma mais forte de consentimento não é totalmente significativa, pois muitas vezes as pessoas simplesmente clicam em um botão de aceitar sem ler ou entender os riscos envolvidos.

A IA amplifica as deficiências do consentimento, uma vez que muitas vezes as pessoas não têm ideia do que estão consentindo. Com a IA generativa, por exemplo, os usos específicos dos dados são frequentemente desconhecidos. O consentimento se torna, então, um cheque em branco para fazer quase qualquer coisa. É importante destacar que a lei de privacidade tem sido falha ao confiar muito no consentimento como base para o uso de dados pelas empresas.

Limitações na coleta de dados para IA

Por outro lado, as exigências de consentimento podem dificultar a coleta de dados pessoais para treinar modelos de IA, mesmo quando isso traz benefícios significativos. Além disso, a coleta de dados públicos para pesquisas e reportagens jornalísticas também pode ser prejudicada por essas exigências de consentimento.

O GDPR não contém uma exceção para informações disponíveis publicamente, o que significa que as organizações precisam ter uma base legal para coletar esses dados. Pequenas empresas sem uma grande base de usuários teriam dificuldades em obter consentimento dos indivíduos para coletar seus dados. Isso pode resultar em uma falta de dados suficientes para treinar modelos de IA.

Em um caso conhecido envolvendo o LinkedIn e a empresa HiQ Labs, o LinkedIn bloqueou a coleta de dados pessoais pela HiQ Labs, alegando ser anti-competitivo. Embora o tribunal tenha concordado com o bloqueio inicialmente, a questão ainda está em litígio. Essa restrição na coleta de dados pode prejudicar o desenvolvimento de modelos de IA, especialmente para empresas menores que dependem de dados de fontes externas.

Geração de dados pela IA

A IA não apenas faz inferências sobre as pessoas, mas também pode gerar novos dados. Essa geração de dados pode violar a privacidade das pessoas, revelando informações sensíveis que elas prefeririam não divulgar. A IA pode inferir informações sobre saúde, religião, crenças políticas, vida sexual e outros aspectos pessoais com base em dados aparentemente inofensivos.

As leis de privacidade têm se concentrado principalmente na coleta de dados, deixando de lado a questão da geração de dados por meio de inferências. Embora seja possível retificar dados coletados, geralmente não há meios de contestar ou retificar as inferências feitas a partir desses dados. Isso pode levar a violações graves de privacidade, mesmo quando as inferências estão erradas.

A geração de dados pela IA também pode contornar as proteções de privacidade existentes. Por exemplo, informações confidenciais, como dados médicos, são protegidas para evitar que sejam usadas em decisões adversas. No entanto, a IA pode gerar dados que contornam essas proteções e expõem informações confidenciais.

Além disso, a IA pode dificultar a desidentificação de dados pessoais. Isso é especialmente problemático quando se trata de uso de dados de saúde, por exemplo, pois a IA pode facilmente reidentificar esses dados que deveriam ser anônimos. A lei de proteção de dados precisa abordar esses desafios e garantir que a geração de dados pela IA seja tratada da mesma forma que a coleta de dados.

Dados maliciosos e manipulação

A IA pode ser usada para criar conteúdo falso e prejudicial. Chatbots de IA podem inventar informações falsas sobre pessoas, enquanto as deepfakes podem gerar imagens e vídeos falsos realistas. Essas tecnologias têm sido usadas para criar vídeos pornográficos falsos de pessoas famosas, causando danos significativos a essas vítimas.

Além disso, a disponibilidade de ferramentas de IA para o público em geral permite que qualquer pessoa as utilize para fins maliciosos. Isso pode levar a uma proliferação de conteúdo prejudicial e criminoso. A lei, muitas vezes, não consegue responsabilizar os criadores dessas ferramentas quando são usadas de maneira prejudicial.

A IA também pode ser usada para facilitar ataques cibernéticos e fraudes. Hackers podem utilizar a IA para identificar vulnerabilidades ou criar malware. Com a IA generativa, é possível injetar prompts para fazer com que um chatbot exponha dados que deveriam ser mantidos em sigilo. Além disso, a IA pode ser usada para criar ataques de phishing mais sofisticados.

As leis de segurança de dados ainda estão em desenvolvimento e precisam ser reformuladas para abordar adequadamente esses problemas. A notificação de violação de dados é importante para informar os indivíduos sobre possíveis vazamentos, mas não é suficiente para proteger efetivamente a segurança dos dados. É necessário responsabilizar todas as partes envolvidas na coleta, uso e proteção de dados.

Simulação e engano

A simulação de seres humanos por meio da IA pode ser enganosa e manipuladora. A IA pode criar chatbots tão convincentes que as pessoas podem acreditar estar interagindo com um ser humano real. Isso pode levar as pessoas a responder de maneira diferente, considerando as implicações éticas e morais de interagir com um ser humano. A simulação pode enganar as pessoas, mesmo que elas saibam que estão interagindo com uma máquina.

A capacidade da IA de simular seres humanos levanta questões sobre a atribuição de responsabilidade moral e legal. Se a IA fosse verdadeiramente inteligente, isso afetaria como atribuímos responsabilidade por suas ações e decisões. No entanto, a IA atual é apenas uma ferramenta e a responsabilidade é atribuída aos seus criadores e usuários.

A IA também pode ser manipuladora, mesmo quando sabemos que se trata de uma simulação. A simulação pode ser tão convincente que nos comportamos como se fosse real, mesmo sabendo que é apenas uma máquina. A confiança e o relacionamento estabelecido com uma simulação podem ter consequências significativas, mesmo que saibamos que é apenas uma máquina.

As leis de privacidade devem regular as interações entre humanos e IA, exigindo transparência sobre o uso de IA e reconhecendo as limitações da simulação. É importante garantir que os usuários saibam quando estão interagindo com uma máquina e que a IA não seja utilizada para manipulação ou engano.

Conclusão

A inteligência artificial traz consigo uma série de desafios para a privacidade, mas também oferece oportunidades para repensarmos e aprimorarmos as leis de privacidade existentes. Embora a privacidade seja um direito fundamental, precisamos encontrar um equilíbrio entre a proteção dos dados pessoais e a inovação impulsionada pela IA.

A regulamentação da IA e da privacidade precisa levar em consideração a coleta e o processamento de dados, os problemas decorrentes dessas atividades e as consequências para os indivíduos afetados. É necessário garantir a transparência, a responsabilidade e a participação das partes interessadas nesse processo.

Em última análise, a privacidade e a IA estão interligadas, e as leis de privacidade bem concebidas podem desempenhar um papel fundamental na proteção dos direitos individuais nesse novo cenário tecnológico. Cabe aos legisladores e especialistas em privacidade trabalharem juntos para desenvolver políticas eficazes que garantam a privacidade em um mundo cada vez mais dominado pela IA.

A coleta de dados na era da IA apresenta desafios significativos para a privacidade e a proteção de dados pessoais. As leis de privacidade estão tentando se adaptar para lidar com esses desafios, mas ainda há muito a ser feito. É fundamental encontrar um equilíbrio entre a coleta de dados necessária para o desenvolvimento de IA e a proteção dos direitos individuais.

A geração de dados pela IA, a criação de dados maliciosos e a simulação de seres humanos são questões que precisam ser enfrentadas. É necessário um esforço conjunto de governos, empresas e sociedade civil para desenvolver leis e regulamentos que protejam efetivamente a privacidade das pessoas na era da IA.

À medida que a IA continua a evoluir e se tornar mais presente em nossas vidas, devemos estar atentos aos desafios que ela apresenta para a privacidade e a proteção de dados. Somente com um entendimento claro desses desafios e com ações adequadas poderemos colher os benefícios da IA sem comprometer nossos direitos fundamentais.

Rodrigo Adry

Rodrigo Adry

Neurocirurgia, Cirurgia de Coluna, Médico Perito, Auditoria Médica, Direito Médico e Legislação Hospitalar.

AUTORES MIGALHAS

Busque pelo nome ou parte do nome do autor para encontrar publicações no Portal Migalhas.

Busca