O Idec afirmou nesta quarta-feira, 24, que a justificativa para a Meta não lançar sua assistente de inteligência artificial generativa para o usuário final no Brasil é “questionável”. A entidade entende que a tecnologia poderia, sim, ser implementada. Na visão do instituto de defesa ao consumidor, a Lei Geral de Proteção de Dados Pessoais (LGPD) permite diversas atividades, desde que cumpra requisitos de transparência, prestação de contas e garanta direitos dos usuários. O Idec entende que a companhia que poderia oferecer o consentimento válido do treinamento de IA para cumprir a lei.

Entenda

Na última terça-feira, 23, a Meta lançou o grande modelo de linguagem Llama 3.1 globalmente para desenvolvedores. Mas a ferramenta de IA para o consumidor final, a IA da Meta, teve oa chegada ao Brasil adiada: “Estamos adiando no Brasil neste momento devido às incertezas regulatórias a chegada da ‘IA da Meta’, o nosso assistente virtual disponível para as pessoas em nossos aplicativos, que está sendo lançado hoje em novos mercados, como destacamos abaixo”, disse a Meta em nota ao Mobile Time.

A organização de defesa ao consumidor classificou como “falácia” o argumento da Meta e chamou a decisão da empresa de “punição coletiva” aos usuários. “Se alguém reivindicar seus direitos, todos os usuários ficam sem acesso aos novos produtos da Meta”, criticou o Idec.

“A Meta tem os recursos necessários para utilizar a IA com base em consentimento válido, mas até o momento escolheu não seguir esse caminho. Enquanto as empresas focam na (importante) inovação de suas tecnologias, escondem que não é nenhuma inovação suas condutas reiteradamente contra direitos de seus usuários”, completa a nota.

Histórico

O imbróglio da Meta no Brasil não é de hoje. Um primeiro capítulo aconteceu em 2021 com uma alteração na política de privacidade do WhatsApp para compartilhamento de dados com outros apps da Meta. Na época, a tratativa foi investigada pela ANPD por risco da violação no compartilhamento de dados dos usuários brasileiros. A Meta chegou a adiar a política de privacidade, mas a implementou depois que o regulador liberou a alteração no compartilhamento de dados.

No começo de julho deste ano, a ANPD publicou no Diário Oficial da União uma ordem para a Meta suspender a sua política de privacidade mais recente dos seus apps (Instagram, Facebook, WhatsApp), devido ao uso de dados pessoais para treinamento de IA. O descumprimento resultaria em uma multa de R$ 50 mil por dia. A Meta chegou a entrar com um pedido de reconsideração na agência reguladora, mas foi negado. Como resultado, a Meta decidiu interromper o recurso de IA generativa do Meta AI no Brasil no último dia 17 de julho.

Antes, em junho deste ano, a holding interrompeu a mesma coleta de dados para o treinamento de modelos de inteligência artificial na União Europeia pelos mesmos motivos: investigação do órgão regulador irlandês, a Comissão de Proteção de Dados (DPC, na sigla em inglês).

Paralelamente, o Idec se juntou ao MPF e voltou a processar a Meta pela política de privacidade alterada em 2021 em uma ação avaliada em R$ 1,7 bilhão e tendo a holding e a ANPD como rés.

Punição coletiva

Vale lembrar, a relação da Meta de punir seus usuários para não seguir novas regulamentações não se restringe ao Brasil. Canadá, EUA, França e Austrália passaram por problemas similares quando os governos locais forçaram a empresa de Mark Zuckerberg a remunerar jornais e outros veículos noticiosos pelo uso de suas matérias nas redes sociais.

No Canadá, a retirada das notícias das redes sociais da Meta provocou uma queda na audiência dos veículos jornalísticos, diminuindo ainda mais a receita com mídia programática em seus sites, como relatado no Festival 3i deste ano.

Imagem principal: Arte de Nik Neves para Mobile Time