O Google Lens (Android, iOS), utilizado mais de 10 bilhões de vezes por mês, em breve conseguirá escanear qualquer imagem ou vídeo que aparecer na tela de smartphones Android, em sites ou aplicativos. O recurso chegará nos próximos meses, de acordo com anúncio feito nesta quarta-feira, 8, que também inclui outras funcionalidades.
“Por exemplo, digamos que você receba uma mensagem de um amigo, que te mandou um vídeo explorando Paris. Você gostaria de saber qual é o ponto turístico que vê no vídeo”, explicou Elizabeth Reid, VP de busca do Google. Nesse caso, é só ativar o Google Assistente (Android, iOS) e clicar em “Pesquisar tela” (“Search screen”, em inglês). O Assistente se conectará ao Lens, que consegue identificar o local e dar mais informações sobre ele.
O recurso Multisearch chega nesta quarta-feira, a todas línguas nas quais o Lens está disponível. Com ele, é possível pesquisar por imagem e texto ao mesmo tempo, encontrando variações da busca visual inicial. Por exemplo, ao pesquisar um modelo de poltrona, o usuário consegue escrever uma cor, para que o app apresente o mesmo modelo em outras variações de cor.
Outra funcionalidade, Multisearch near me, que está disponível nos Estados Unidos, será lançada globalmente nos próximos meses. Fazendo uma busca no Lens, o usuário conseguirá pesquisar por negócios locais em que pode encontrar aquilo, como um prato de comida.
O Google também anunciou que o Multisearch será integrado ao buscador do Google no smartphone, e poderá ser usado em qualquer imagem que aparecer na página de resultados de pesquisa, no celular. Por exemplo, usuário faz uma busca por “ideias de salas de estar modernas” e encontra uma mesa que gosta, mas prefere ela em outro formato. Assim, poderá usar o Multisearch para adicionar a palavra “retângulo” no buscador, a fim de encontrá-la neste formato.
Inteligência artificial
O Google destacou ainda no evento o papel da inteligência artificial (IA) por trás dos novos recursos. A companhia tem trazido tecnologias de IA para os seus produtos, como o Google Maps, além de investir em serviços inéditos, como o Bard, chatbot que será lançado para fazer frente ao ChatGPT.
“Por meio de nossos investimentos contínuos em IA, agora podemos entender as informações em suas diversas formas, desde linguagem até imagens e vídeos – até mesmo o mundo real. Com essa compreensão profunda, estamos indo além da noção tradicional de pesquisa, ajudando a entender as informações de novas maneiras”, disse Prabhakar Raghavan, vice-presidente sênior do Google. “Estamos criando novas experiências de pesquisa, que funcionam mais como nossas mentes, que refletem como nós, como pessoas, naturalmente entendemos o mundo.”