MIGALHAS QUENTES

  1. Home >
  2. Quentes >
  3. Meta não pode usar dados de usuários de redes sociais para treinar IA
Inteligência artificial

Meta não pode usar dados de usuários de redes sociais para treinar IA

Nova política de privacidade da empresa autorizava uso de dados públicos dos usuários para treinar inteligência artificial, o que preocupou a ANPD.

Da Redação

terça-feira, 2 de julho de 2024

Atualizado às 12:35

A ANPD - Autoridade Nacional de Proteção de Dados determinou a suspensão do uso de dados de usuários divulgados em plataformas da empresa Meta (Instagram, Facebook e Messenger) para o treinamento de sistemas de IA - inteligência artificial.

O conselho decisório da ANPD aprovou a medida cautelar, que foi oficializada no DOU - Diário Oficial da União nesta terça-feira, 2. Em caso de descumprimento, a empresa estará sujeita a uma multa diária de R$ 50 mil.

Segundo o despacho, a ordem dever ser cumprida imediatamente. Foi dado prazo de cinco dias, a partir da intimação, para que a Meta apresente ao governo:

  • documentação que ateste a adequação da Política de Privacidade, mediante a exclusão do trecho correspondente ao tratamento de dados pessoais para fins de treinamento de IA generativa; e
  • declaração assinada pelo encarregado, por membro do corpo diretivo ou representante legalmente constituído, atestando a suspensão do tratamento de dados pessoais para fins de treinamento de IA generativa no Brasil.

Veja o documento na íntegra.

 (Imagem: Freepik)

ANPD proibiu que Meta siga nova política em redes sociais, a qual previa uso de dados de usuários para treinamento de inteligência artificial.(Imagem: Freepik)

Mudanças

Em junho deste ano, a Meta implementou nova política de privacidade que abrange suas redes sociais. Ela autorizou o uso de conteúdos públicos compartilhados pelos usuários para o treinamento de IA generativa.

"Tal tratamento pode impactar número substancial de pessoas, já que, no Brasil, somente o Facebook possui cerca de 102 milhões de usuários ativos", declarou a ANPD em nota oficial.

A ANPD decidiu, por iniciativa própria, fiscalizar a nova política da Meta e identificou "riscos de dano grave e de difícil reparação aos usuários", indicando uma possível violação da LGPD - Lei Geral de Proteção de Dados.

"A ANPD avaliou que a empresa não forneceu informações adequadas e necessárias para que os titulares tivessem ciência sobre as possíveis consequências do tratamento de seus dados pessoais para o desenvolvimento de modelos de IA generativa", afirmou a autoridade em nota.

A medida foi justificada pelo uso de dados pessoais de crianças e adolescentes no treinamento dos sistemas de IA da Meta, o qual está sujeito a proteção especial pela LGPD.

Além disso, destacou "obstáculos excessivos e não justificados" para que os usuários possam se opor ao tratamento de seus dados pessoais.

Segundo a autoridade, os usuários compartilharam suas informações pessoais esperando interações com amigos, comunidades próximas e empresas de interesse, e não que esses dados fossem utilizados no treinamento de IA.

Resposta da Meta

Em resposta, a Meta expressou desapontamento com a decisão da ANPD.

A empresa ressaltou que não é a única a utilizar informações coletadas para o treinamento de IA e afirmou ser mais transparente que muitos participantes da indústria que utilizam conteúdos públicos para esse fim.

"Nossa abordagem cumpre com as leis de privacidade e regulações no Brasil, e continuaremos a trabalhar com a ANPD para endereçar suas dúvidas. Isso é um retrocesso para a inovação e a competividade no desenvolvimento de IA e atrasa a chegada de benefícios da IA para as pessoas no Brasil", declarou a companhia.