A ANPD (Autoridade Nacional de Proteção de Dados) suspendeu a medida preventiva que proibia a coleta de dados para treinamento de inteligência artificial feita pela Meta no Brasil e aprovou o plano de conformidade. Segundo a autoridade, a holding se comprometeu a cumprir as exigências. Portanto, não realizará coleta de dados de contas de menores de 18 anos e implementará medidas que tornam o processo mais transparente e simples para o usuário negar o uso de seus dados pessoais.

As atualizações ainda não foram implementadas e a empresa tem cinco dias úteis para enviar o cronograma das ações atualizado no despacho decisório nº 33/2024, emitido nesta sexta-feira, 30.

Depois de entregue o cronograma, Meta tem um prazo de 30 dias entre o envio da notificação aos titulares e o início do tratamento de dados públicos de contas de usuários.

Usuários com contas privadas, abertas e quem não tem

O próximo passo de Meta será notificar individualmente os usuários e encaminhar a todos um link para que possam, facilmente, optar por não terem seus dados usados em treinamento. Aqueles com contas privadas, ou seja, bloqueadas para quem não faz parte de sua rede pessoal, não terão os dados coletados. Portanto, as pessoas com as contas abertas, caso não desejem que seus dados sirvam para o treinamento da IA da Meta, deverão indicar isso ao clicar no link do email que será enviado ou entrar no app e acessar a notificação sobre o tema.

A ANPD reforçou em coletiva de imprensa nesta tarde de sexta-feira, que a Coordenação-Geral de Fiscalização (CGF) acompanhará o cumprimento do Plano de Conformidade e a implementação do sistema de inteligência artificial da holding.

A empresa tem o mesmo tempo (30 dias) para alterar o formulário disponibilizado para o exercício do direito de oposição por não usuários das plataformas. Isso porque mesmo quem não possui conta no Facebook ou no Instagram tem seus dados rastreados pela Meta (caso um usuário coloque uma foto de alguém que não tem login no Instagram, por exemplo, ou um não usuário que acesse a rede para ver o cardápio de um restaurante, em ambos os casos, os dados são coletados).

E, quem não quiser que esses dados sejam usados para treinamento de IA deve expressar sua vontade entrando no aviso de privacidade desses sites e selecionar o aviso de privacidade para o Brasil. Ali haverá instruções para se opor ao treinamento.

Os compromissos assumidos

A suspensão está baseada em documentação enviada pela companhia e por compromissos assumidos por ela. Assim, o Conselho Diretor aprovou um Plano de Conformidade, com medidas que deverão ser implementadas pela Meta para se adequar à legislação brasileira.

Entre as medidas, estão:

– enviar mensagem por e-mail e por notificação pelos aplicativos Instagram e Facebook com informações “claras e acessíveis” sobre o tratamento de dados realizado pela empresa para fins de treinamento de seu sistema de IA;

– atualizar documentos de comunicação como Aviso de Privacidade e banners na página de Política de Privacidade com informações sobre o tratamento de dados para treinar modelos de inteligência artificial generativa;

– informar sobre a possibilidade de proibir a Meta de usar seus dados pessoais.

Vale lembrar que, para o usuário proibir a coleta de seus dados, antes, era necessário passar por uma sequência de oito telas, entre elas, justificar os motivos para não ter seus dados coletados para o treinamento. Agora, a Meta enviará um e-mail e aparecerá no aplicativo uma notificação. Basta a pessoa clicar no link e selecionar a opção que não deseja ter seus dados treinados pela IA.

A decisão do usuário afetará as duas redes sociais. Porém, caso as contas de Facebook e Instagram não estejam vinculadas, será necessário fazer a proibição em ambos os apps.

Acompanhamento

A CGF acompanhará a implementação do plano de conformidade aprovado, bem como o lançamento e a implementação do novo sistema de IA a ser disponibilizado por Meta, para monitorar os riscos e os impactos das medidas aos titulares.

De acordo com Fabrício Lopes, coordenador geral de fiscalização da ANPD, uma das maneiras de a autoridade se certificar de que as medidas foram implementadas será fazendo uso da IA. Ou seja, pedindo que a inteligência artificial generativa, por exemplo, crie uma imagem de alguém de modo a verificar os outputs produzidos pela inteligência artificial e, assim, verificar se ela transgrediu alguma norma.

Daqui para frente

Miriam Wimmer, diretora da ANPD, explicou que a partir dessa ação algumas discussões começaram a ser feitas, como o uso de dados de crianças e adolescentes para o treinamento da IA e a questão sobre a hipótese de legítimo interesse.

“Existem várias questões que foram identificadas nesse processo que vão necessitar de um aprofundamento. A Meta se comprometeu a não tratar dados de crianças e adolescentes, mas ela quer uma oportunidade para esclarecer por que é importante utilizar esses dados. Há também discussões sobre a hipótese de legítimo interesse”, explicou.

A legislação não permite a hipótese de legítimo interesse quando se trata de dados sensíveis (biométricos, saúde, saúde, etnia, raça, entre outros). Porém, há uma discussão sobre seu uso para o tratamento de dados.

Wimmer explicou que “o legítimo interesse não está liberado com uma hipótese geral de tratamento de inteligência artificial sem qualquer condicionamento adicional”. “Não estamos dando uma carta branca, mas certificando que existem salvaguardas e proteção para o uso dessa hipótese legal em todos os casos, sobretudo quando houver dados pessoais sensíveis, porque a legislação não permite a hipótese do legítimo interesse quando houver dado pessoal sensível”.

A diretora ressalta que é um dilema jurídico enfrentando não somente no Brasil, mas em outras partes do mundo.

“E o que foi pactuado com a Meta, e que não representa uma autorização genérica da ANPD, é que todos os dados coletados, além de serem dados publicamente disponíveis, acessíveis por qualquer pessoa na Internet, serão desidentificados antes de serem utilizados para treinamento”, complementou.

Relembre o caso de Meta e ANPD

No dia 2 de julho, a ANPD publicou uma medida preventiva determinando a suspensão da nova Política de Privacidade da Meta. As novas regras autorizavam a coleta de dados pessoais de usuários de suas plataformas para o treinamento de IA generativa do projeto Meta AI.

No dia 11 de julho, a autoridade negou pedido de reconsideração de Meta sobre a medida preventiva, porém, o Conselho Diretor da autoridade concedeu mais cinco dias para que a holding de Facebook, Instagram, WhatsApp e Messenger comprovasse o cumprimento da decisão, já que a empresa alegou que havia dificuldades técnicas para comprovar que atendeu aos pedidos da autoridade.