Meta não pode usar dados de usuários de redes sociais para treinar IA
Nova política de privacidade da empresa autorizava uso de dados públicos dos usuários para treinar inteligência artificial, o que preocupou a ANPD.
Da Redação
terça-feira, 2 de julho de 2024
Atualizado às 12:35
A ANPD - Autoridade Nacional de Proteção de Dados determinou a suspensão do uso de dados de usuários divulgados em plataformas da empresa Meta (Instagram, Facebook e Messenger) para o treinamento de sistemas de IA - inteligência artificial.
O conselho decisório da ANPD aprovou a medida cautelar, que foi oficializada no DOU - Diário Oficial da União nesta terça-feira, 2. Em caso de descumprimento, a empresa estará sujeita a uma multa diária de R$ 50 mil.
Segundo o despacho, a ordem dever ser cumprida imediatamente. Foi dado prazo de cinco dias, a partir da intimação, para que a Meta apresente ao governo:
- documentação que ateste a adequação da Política de Privacidade, mediante a exclusão do trecho correspondente ao tratamento de dados pessoais para fins de treinamento de IA generativa; e
- declaração assinada pelo encarregado, por membro do corpo diretivo ou representante legalmente constituído, atestando a suspensão do tratamento de dados pessoais para fins de treinamento de IA generativa no Brasil.
Veja o documento na íntegra.
Mudanças
Em junho deste ano, a Meta implementou nova política de privacidade que abrange suas redes sociais. Ela autorizou o uso de conteúdos públicos compartilhados pelos usuários para o treinamento de IA generativa.
"Tal tratamento pode impactar número substancial de pessoas, já que, no Brasil, somente o Facebook possui cerca de 102 milhões de usuários ativos", declarou a ANPD em nota oficial.
A ANPD decidiu, por iniciativa própria, fiscalizar a nova política da Meta e identificou "riscos de dano grave e de difícil reparação aos usuários", indicando uma possível violação da LGPD - Lei Geral de Proteção de Dados.
"A ANPD avaliou que a empresa não forneceu informações adequadas e necessárias para que os titulares tivessem ciência sobre as possíveis consequências do tratamento de seus dados pessoais para o desenvolvimento de modelos de IA generativa", afirmou a autoridade em nota.
A medida foi justificada pelo uso de dados pessoais de crianças e adolescentes no treinamento dos sistemas de IA da Meta, o qual está sujeito a proteção especial pela LGPD.
Além disso, destacou "obstáculos excessivos e não justificados" para que os usuários possam se opor ao tratamento de seus dados pessoais.
Segundo a autoridade, os usuários compartilharam suas informações pessoais esperando interações com amigos, comunidades próximas e empresas de interesse, e não que esses dados fossem utilizados no treinamento de IA.
Resposta da Meta
Em resposta, a Meta expressou desapontamento com a decisão da ANPD.
A empresa ressaltou que não é a única a utilizar informações coletadas para o treinamento de IA e afirmou ser mais transparente que muitos participantes da indústria que utilizam conteúdos públicos para esse fim.
"Nossa abordagem cumpre com as leis de privacidade e regulações no Brasil, e continuaremos a trabalhar com a ANPD para endereçar suas dúvidas. Isso é um retrocesso para a inovação e a competividade no desenvolvimento de IA e atrasa a chegada de benefícios da IA para as pessoas no Brasil", declarou a companhia.