“Não tem bala de prata” para combater criminosos e fraudadores digitais. É o que afirma Mario Cesar Santos, vice-presidente de soluções globais e gerente geral na América Latina da Aware, em relação aos avanços da criminalidade com engenharias sociais sofisticadas e até o uso de inteligência artificial.

Mobile Time conversou com uma série de executivos do segmento de biometria sobre como eles veem o desenvolvimento de soluções criadas com dados sintéticos e injeção digital (leia-se IA generativa), como o deepfake de voz e rostos. Isso está impactando a percepção dos brasileiros sobre a segurança de seus dados armazenados por organizações.

De acordo com o Panorama Mobile Time/Opinion Box sobre biometria digital e senhas, a desconfiança dos consumidores para a gestão de seus dados pessoais por empresas aumentou em 2023 ante 2022, em especial para redes sociais, que subiu 21 pontos percentuais. Operadoras de telefonia (+18 pps), comércio eletrônico (+17 pps), órgãos governamentais (+12 pps) e distribuidoras de energia (+10 pps) também tiveram aumento significativo.

“O consumidor acaba perdendo a confiança na realidade”, disse Santos. “A tecnologia atualmente é assustadora. Como o uso da IA dá para criar o faceswap”, completou ao falar sobre a técnica que os fraudadores começam a usar. “Já vemos isso em banco no exterior. São casos esporádico ainda. É uma ferramenta de diversão que o fraudador começa a usar”, acrescenta

Faceswap

O VP da Aware explicou que o faceswap é uma técnica que permite gerar uma face nova, com traços do rosto da vítima, para driblar as ferramentas de checagem, algo que pode ser feito com os apps normais que estão nos marketplaces digitais. O seu intuito é entrar na conta da vítima ou até criar uma conta bancária para transações fraudulentas, as contas laranjas: “Cinco anos atrás era a selfie liveness. Resolvemos. Aí veio a pandemia e o risco da câmera aberta em diversos apps ao mesmo tempo. Resolvemos. Agora temos a IA generativa”, completou.

Um dado recente do Gartner revelou um aumento global de mais de 200% dos ataques por meio de injeção digital em 2023, ou seja, o uso da IA generativa como forma de fraudar bancos, previdência, serviços de educação e plataformas de apostas esportivas.

Para Santos, há algumas formas de resolver esses e outros problemas relacionados à proteção e checagem de dados, como:

  • Colocar múltiplas camadas para checar a identidade;
  • Orquestrar essas camadas para não ter muita fricção e afetar a experiência do usuário em transações;

Mas principalmente, a adesão da população à Carteira de Identidade Nacional (CIN), uma vez que grande parte dos brasileiros não estão na base do Serpro hoje, o que os torna alvo dos fraudadores.

Deepfake

Jason Howard, CEO da CAF aponta que os apps de apostas esportivas têm um universo bastante dinâmico e desafiador na validação de contas. Com muitas dessas plataformas atuando de forma global, há os desafios regionais.

No Brasil, Howard cita o avanço do deepfake e da tomada de contas. Isto em um cenário que a percepção da população brasileira sobre as bets está negativa: 56% concordam com a afirmação de que os apps de apostas esportivas são prejudiciais à sociedade porque viciam e fazem as pessoas perderem dinheiro, segundo pesquisa do Mobile Time com a Opinion Box de junho deste ano.

“A IA começa a se tornar um desafio para as bets. Como em toda tecnologia, nós vemos o bom uso da tecnologia e o mau uso. Um exemplo de uso ruim (para gerar danos) é o deepfake”, afirmou Howard, ao dizer que o mercado brasileiro é único com mais de 120 bets cadastradas.

Mas o CEO da companhia acredita que é preciso ter mais integração no ecossistema, pois os fraudadores colaboram entre si, como ao compartilhar brechas em plataformas ou vítimas. Para isso, Howard acredita que o desafio está não apenas na orquestração de tecnologias e criação de camadas, mas na integração e estruturação de dados entre os players de setores das apostas, em um formato similar àquele que a Febraban e o Banco Central fazem atualmente.

Voz

Em outra camada que seria bastante usada pelos fraudadores, a Minds Digital ainda não vê muito o avanço da IA generativa com vozes sintéticas. De acordo com Inácio Freitas, head of partner organization na companhia, as empresas estão preparadas atualmente, mas alerta que o uso dessa tecnologia seria para golpes mais sofisticados.

“Hoje se fala muito de deepfake, a maioria dos clientes nos pressionam, mas as nossas plataformas estão habilitadas para isso. Conseguimos identificar e bloquear”, disse Freitas. “Ainda não vimos no Brasil o uso dessa tecnologia contra nossos clientes. Mas no exterior nós vimos um caso da China: uma pessoa chegou a fazer a transação como se fosse o VP da empresa”, detalhou.

Com casos como esses surgindo no exterior, o head da Minds lista os principais setores que estão buscando soluções para combater vozes sintéticas:

  • Saúde, por causa problemas de fraude em planos de saúde, exames;
  • Advocacia, para proteger a confidencialidade de documentos, com acesso por voz

“Hoje, dentro do mundo Minds, tudo o que fizemos de POCs está em início de produção. As empresas veem ganho em diminuir fraude e melhorar o atendimento. E veremos novos casos aparecendo com empresas pedindo para adequar”, completou o executivo.

Vale dizer, a Statista estima que o mercado global de reconhecimento de voz deve representar US$ 7,14 bilhões ao final de 2024. E até 2030 deve chegar a uma receita de US$ 15,8 bilhões, em um crescimento médio de 14% ao ano.

Imagem principal: Arte de Nik Neves para Mobile Time