A Zenvia está com algumas centenas de clientes do segmento de pequenas e médias empresas construindo chatbots com inteligência artificial generativa, um mês após o lançamento da solução de construção de robôs de contato para este segmento. É o que revelou Cassio Bobsin, CEO e fundador da companhia, durante o Super Bots Experience nesta quarta-feira, 7. De acordo com o executivo, o sucesso dos robôs de atendimento entre as PMEs está no fato de elas serem mais ousadas em produzir bots com IA generativa, enquanto que as grandes são mais cautelosas por conta das alucinações e exposições de dados sensíveis que podem ocorrer.

Para os especialistas participantes do painel “A transformação do mercado de bots pós-IA generativa”, as grandes companhias precisam de ganho de escala, volume e precisão de dados e nada disso acontece no curto prazo. Por sua vez, as pequenas e médias entram no mercado por não terem tanto risco e legado com chatbots de atendimento em IA tradicional.

A experiência da Zenvia

O executivo afirmou que a automação com o chatbot completamente construído e operado com tecnologia de IA generativa é mais fácil para as pequenas e médias do que para as grandes empresas: “As grandes (companhias) têm complexidades e receios com exposições e alucinações em IA generativa. Já os pequenos e médios não tinham acesso ao bot de linguagem estruturada, pois era complexo e caro para eles. Eles podem correr um pouco mais de risco, mas, em média, conseguem construir os primeiros bots e entram em produção com inteligência artificial generativa”, explicou.

“Isso mostra como (o acesso aos bots) é revolucionário para os pequenos e médios. E para os grandes negócios é um equilíbrio, pois partem de um modelo mais estruturado (chatbot tradicional) para combinar com capacidades de IA generativa, que tem um avanço muito grande para a experiência do usuário”, completou.

O exemplo da TIM

Como exemplo entre as grandes empresas, a CIO da TIM, Auana Mattar, explicou que a operadora está fazendo a adoção da IA generativa com cautela, justamente para ter um melhor controle e foco naquelas tarefas que realmente têm potencial de impactar os negócios. Afirmou ainda que o uso da IA generativa ainda não acontece na ponta, para o cliente, como as pequenas empresas com a Zenvia, mas uma adoção interna focada em ações que impactam o negócio e a experiência do cliente.

Custos para as grandes em IA generativa

Durante o painel de abertura do evento organizado por Mobile Time, que chega a sua décima edição em 2024, Beerud Sheth, cofundador e CEO da Gupshup, detalhou que o preço do investimento em inteligência artificial generativa não é mais uma questão de preocupação para as grandes companhias, pois o preço dos tokens já começa a cair com a competição e o movimento das plataformas open source.

“É um ótimo ecossistema. Quando os custos de mensageria e os custos de Internet (dados) caíram, o uso explodiu. Acho que acontecerá o mesmo aqui. Se o custo da IA continuar caindo, o seu uso vai crescer. Há muitas coisas boas acontecendo. Mesmo com os modelos de negócios. Nós (players do mercado de bots) não falamos mais de preço unitário, oferecemos em pacotes simples e claros. Isso melhora a qualidade e não muda muito o custo final”, disse Sheth.

Treinamento e uso de LLMs

Por sua vez, Silvio Eduardo Andrade, diretor de estratégia de evolução digital da BRQ, afirmou que para as grandes usarem IA generativa (como um copiloto) é preciso ter volume e precisão de dados, algo que demanda personalização e treinamento de IA e grandes modelos de linguagem (LLM), o que demanda no mínimo dois anos.

Andrade reforça ainda que, em IA generativa, as empresas precisarão constantemente rever os fornecedores. Ele projeta que o mundo terá múltiplas LLMs para construir os modelos empresariais: “Acredito que em pouco tempo teremos as grandes LLMs (OpenAI, Anthropic, Google, Mistral) e as especializadas. Por exemplo, uma LLM especializada para agronegócio, outra para finanças, outra para call center. O caminho mais certeiro é a empresa se adaptar e ter a arquitetura de tecnologia preparada”, disse.

O executivo exemplificou com um projeto para um banco feito pela BRQ que usou dois LLMs, um com taxa de sucesso mediana, de custo muito baixo, e outro mais carao para tudo aquilo que o primeiro não alcança. Como resultado, o banco obteve 97% de acerto em análise de documentos.

Super Bots Experience 2024

Super Bots Experience 2024 terá um segundo dia, nesta quinta-feira, 8, também no WTC, em São Paulo. Haverá executivos de Claro, TIM, Vivo, Sem Parar, Bradesco, Cielo, SAS, Banco do Brasil, entre outros, para participarem de painéis sobre autoatendimento digital, higienização de dados, LLMs, novas regulações, por exemplo.

Foto: Membros do painel: Beerud Sheth, cofundador e CEO, da Gupshup; Cassio Bobsin, fundador e CEO, Zenvia; Rafael Souza, CEO do Ubots; Auana Mattar, CIO da TIM; Fernando Paiva, editor do Mobile Time; Silvio Eduardo Andrade, diretor de estratégia de evolução digital da BRQ; e Thiago Viola, diretor de inteligência artificial, dados e automação da IBM.