A Autoridade Nacional de Proteção de Dados (ANPD) determinou, por meio de Medida Preventiva, que a Meta suspenda a validade da nova política de privacidade da empresa sobre o uso dos dados pessoais em solo brasileiro. A big tech é responsável por redes como Facebook, Instagram e WhatsApp.
O alvo da decisão seria a intenção da Meta de usar dados de usuários para "treinar" sistemas de inteligência artificial (IA) generativa. Esses dados seriam utilizados no banco de dados das IAs para gerar respostas automatizadas.
"A ANPD avaliou que a empresa não forneceu informações adequadas e necessárias para que os titulares tivessem ciência sobre as possíveis consequências do tratamento de seus dados pessoais para o desenvolvimento de modelos de IA generativa. A Autoridade averiguou, ainda, que, embora os usuários pudessem se opor ao tratamento de dados pessoais, havia obstáculos excessivos e não justificados ao acesso às informações e ao exercício desse direito", diz nota da ANPD.
Publicado nesta terça-feira (2), no Diário Oficial da União, o despacho prevê multa de R$ 50 mil por dia de descumprimento. A decisão foi tomada pelo Conselho Diretor da ANPD, com documento assinado pelo diretor-presidente da autoridade, Waldemar Gonçalves.
Após ser intimada, a Meta terá um prazo de cinco dias para apresentar uma documentação que ateste a mudança da Política de Privacidade dos serviços da empresa, além de uma declaração assinada por representante legal provando que o uso de dados foi suspenso. A Meta não se pronunciou até a última atualização deste texto.
Em nota, a Meta informou que "estamos desapontados com a decisão da ANPD. Treinamento de IA não é algo único dos nossos serviços, e somos mais transparentes do que muitos participantes nessa indústria que têm usado conteúdos públicos para treinar seus modelos e produtos. Nossa abordagem cumpre com as leis de privacidade e regulações no Brasil, e continuaremos a trabalhar com a ANPD para endereçar suas dúvidas. Isso é um retrocesso para a inovação e a competitividade no desenvolvimento de IA, e atrasa a chegada de benefícios da IA para as pessoas no Brasil".
Treinamento de IA
A Meta informou, no último dia 4 de junho, que a Política de Privacidade da empresa começaria a prever a possibilidade de uso de dados de usuários no treinamento de IA. A informação foi direcionada à União Europeia e ao Reino Unido.
Com repercussão negativa, a decisão foi cancelada, mas o mesmo não foi realizado no Brasil. O Instituto de Defesa de Consumidores (Idec), então, acionou o Governo contra a nova política.
Na ocasião, a Meta defendeu o uso das informações, alegando que o treinamento de uma inteligência artificial é do interesse da empresa, assim como dos usuários e de outras pessoas.