A Perplexity.Ai (Android, iOS) lançou nesta quarta-feira, 26, o seu modo de voz. Inicialmente para usuários do iOS que são assinantes, a funcionalidade permite ao seu consumidor ter uma conversa fluida, inclusive com perguntas em tempo real.
A companhia confirmou que lançará o modo de voz para usuários Android.
Atualizações na Perplexity
Esta é a segunda grande atualização da Perplexity em menos de um mês. No último dia 14 de fevereiro, a empresa lançou o modo de Pesquisa Profunda (Deep Research, no original em inglês), um modo de contextualização e análise dos questionamentos do usuário que é mais profunda e explicativa, se comparada com o modelo de IA generativa habitual.
Inicialmente disponível para usuários via versão web, o Pesquisa Profunda já está disponível em dispositivos móveis. Para usá-lo em app ou web, o usuário precisa mudar o modelo de ‘automático’ para ‘pesquisa profunda’.
Além disso, o Deep Research foi incluído na última terça-feira para a API Sonar. A sua ideia é ajudar na construção de agentes de pesquisa e fluxo de trabalho com mais contextualização e raciocínio.
Análise
Mobile Time testou a tecnologia nesta noite e percebeu que o modo de conversação funciona em português e consegue ser interrompido pelo usuário (como ao divagar demais). No começo também é possível perceber que a voz está um pouco dura (semi-robótica). Por isso é preciso conversar com a voz para fazer ajustes para ficar mais fluido. De toda forma, é possível manter uma conversa com o Modo de Voz da Perplexity, como tem com ChatGPT da OpenAI e Gemini do Google.
Por sua vez, a Pesquisa Profunda da Perplexity é bem similar a do DeepSeek. Primeiro, o app mostra o racional e depois resume e estrutura como um artigo científico, com título, justificativa, outros capítulos com informações adicionais e conclusão. Inclusive em português e mostrando suas fontes originais de pesquisa, como sites noticiosos e fontes da Internet.
Imagem principal: Ilustração produzida por Mobile Time com IA