A medida cautelar da Autoridade Nacional de Proteção de Dados (ANPD) contra Meta, referente ao uso de dados pessoais de usuários de suas plataformas para o treinamento de sistemas de inteligência artificial generativa é vista por advogados especialistas como: um recado ao mercado de que o órgão está atento ao que acontece no País; que a ANPD amadureceu; e que, possivelmente, o dark pattern, ou bad design, será uma questão tratada pela autoridade. Advogados especialistas ouvidos por Mobile Time acreditam que a medida é o início para outras ações igualmente importantes
Marcelo Cárgano, advogado especialista em direito digital do escritório Abe Advogados salienta também a importância dessa decisão, uma novidade para a ANPD, mas também fruto do amadurecimento da Autoridade Nacional de Proteção de Dados e ao fato de que a legislação (LGPD) é recente no País.
“A LGPD foi promulgada em 2018, a ANPD começou a operar em 2020, e o regulamento que embasa decisões como essa foi estabelecido apenas em 2023. Assim, na medida que a ANPD ganhe mais experiência e robustez em suas atividades, é esperado que mais medidas similares sejam tomadas para assegurar a conformidade com a LGPD e proteger os direitos dos titulares de dados no Brasil. Em particular, a proteção aos direitos fundamentais dos cidadãos frente ao uso de tecnologias como a inteligência artificial tende a demandar cada vez mais a atenção da ANPD para tratamentos de dados deste tipo”, explica.
O especialista considera a decisão da ANPD fundamentada na “identificação preliminar de diversas irregularidades, como o uso inadequado de hipótese legal para o tratamento de dados pessoais sensíveis, falta de transparência na divulgação das mudanças aos usuários, restrições excessivas ao exercício dos direitos dos titulares, e tratamento inadequado de dados de crianças e adolescentes.”
Europa x Brasil: Meta com tratamentos diferentes para cada mercado
O modo como a Meta trata os mercados em que atua é diferente. Cárgano faz a seguinte avaliação: na União Europeia, a holding de Facebook, Instagram, WhatsApp e Messenger informou os usuários das plataformas previamente por e-mail e notificações no aplicativo. “Aliás, na União Europeia, teria sido enviado aos titulares um link para que pudessem exercer seu direito de oposição ao uso de seus dados para treinamento de IA, enquanto no Brasil o procedimento para não ter os seus dados tratados desta forma foi obstaculizado. Por fim, na Europa, a Meta anunciou que não treinaria seus modelos de IA com conteúdo gerado por menores de idade, o que não foi anunciado em relação a crianças e adolescentes brasileiros”, compara.
Recado dado
A decisão inédita da ANPD em determinar medida cautelar contra a Meta mostra que a autoridade quer dar um recado ao mercado: é preciso proteger os dados pessoais dos cidadãos brasileiros. É o que acredita Patrícia Peck, advogada especialista em direito digital e CEO do escritório Peck Advogados.
Peck aponta que o caso envolve principalmente o não uso da transparência em dar ciência prévia ao titular sobre o tratamento de dados para fins de instrução algorítmica e as salvaguardas para evitar riscos à liberdade individual dos usuários, ainda mais em se tratando a questão do público vulnerável – em especial crianças e adolescentes já que Meta não negou o uso de dados desse público. E alerta de que outras empresas podem estar na mira da ANPD.
“É uma decisão de grande relevância porque gera um precedente e que pode alcançar todos aqueles que hoje tratam dados pessoais para instrução da inteligência artificial. Claro que toda medida suspensiva é uma medida extrema”, afirma.
A especialista também aponta para o desafio de, a partir deste caso, avaliar como os modelos de aprendizagem de inteligência artificial vão acontecer daqui para frente.
“Então, é lógico que se busca adequar uma solução, um termo de ajuste de conduta para não chegar a este ponto porque a suspensão de serviços pode afetar todos os titulares e usuários dos serviços. Vai haver um desafio de como mudar o modelo de aprendizagem de IA. Essa é a grande questão que se coloca”, acredita Peck.
Dark pattern ou a dificuldade para o opt-out
Rafael Pellon, sócio-fundador do Pellon de Lima Advogados e consultor jurídico do MEF, aponta outra questão a ser tratada a partir do caso Meta e ANPD: o bad design ou dark pattern que cria barreiras para o opt-out – ou seja, a dificuldade em dizer não à coleta de dados para o treinamento de IA, neste caso.
“E tem a questão que o Brasil abriu para discutir sobre o uso de mal design para você fazer o opt-out, que é justamente um ponto que surgiu na União Europeia e veio para aqui. O bad design cria barreiras para o opt-out. Isto não está previsto na legislação como algo impeditivo, mas vai obviamente contra o princípio do consentimento informado de uso de informações claras”, diz.
“Por conta deste caso envolvendo a Meta, é capaz de o Brasil entrar nesta discussão. “É capaz de investigarmos este processo e o Brasil talvez tenha o ineditismo no tipo de discussão sobre o tema (dark pattern) e a gente ganhe precedentes que depois vão ser válidos para outras discussões no País, já que o uso de bad design layout não é exclusivo da Meta tem inúmeras empresas que fazem isso”, completa o consultor jurídico do MEF.
Vale lembrar que na última terça-feira, 3, Mobile Time ouviu as opiniões de diferentes DPOs brasileiros que tinham sentimentos mistos sobre a medida cautelar.