Os grandes modelos de linguagem (LLM) por trás dos assistentes virtuais de inteligência artificial generativa têm dois problemas pouco comentados: 1) confundir volume de dados com verdade; 2) seguirem regras, não valores. Os dois problemas foram apontados por Sachin Duggal, fundador da Builder.ai, uma startup que oferece uma solução para construção de apps móveis a partir de interface conversacional. Duggal participou de painel sobre o combate à produção e à proliferação de mentiras em canais digitais no MWC25 (Mobile World Congress), nesta quarta-feira, 5, em Barcelona.

Duggal lembra que antes das redes sociais os veículos de notícias eram os principais porta-vozes da verdade. O jornalismo detinha a autoridade para tal. O advento das redes sociais permitiu que qualquer pessoa produzisse e distribuísse conteúdo em escala mundial. Mas com seu modelo de negócios construído em cima de publicidade, quem tem dinheiro para investir pode facilmente espalhar a sua opinião e influenciar outras pessoas. É quase como se comprasse a verdade, ou a autoridade para que sua opinião seja encarada como verdadeira. E os LLMs foram construídos em cima do conteúdo disponível online, incluindo as redes sociais. Para os LLMs, quanto maior o volume de conteúdos apontando para uma determinada versão dos fatos, maior a probabilidade de ser verdade, independentemente da autoridade dos seus porta-vozes.

“Volume virou indicativo de qualidade nos LLMs, mas não deveria ser assim”, criticou.

LLMs carecem de valores

O segundo grande problema é que os LLMs seguem regras, não valores, destacou o executivo. Quando alguém faz um pedido para um assistente com IA generativa, ele não avalia se aquilo é certo ou errado, apenas procura entregar a resposta seguindo determinadas regras pré-configuradas – o que pode incluir não falar sobre determinados temas, o que é uma forma de minimizar problemas.

“Os LLMs são agentes que seguem regras, não valores. Por isso, não sabem o que é certo ou errado. O ideal seria termos um bom sistema de valores (por trás de um LLM) que não deixasse que certas coisas fossem criadas”, sugeriu.

Por sua vez, Ross Frenett, CEO e fundador da Moonshot, entidade que combate fake news e discurso de ódio na Internet, entende que assistentes como o ChatGPT poderiam ser uma ferramenta eficaz para desestimular pessoas a potencialmente realizar atos extremistas.

“Se alguém pede para o ChatGPT um manual para fabricar uma bomba, em vez de simplesmente se negar a responder, ele poderia tentar estabelecer uma conversa para tentar dissuadir a pessoa”, comentou.

Foto no alto: painel sobre combate à desinformação no MWC25 (Crédito: Fernando Paiva/Mobile Time)

 

*********************************

Receba gratuitamente a newsletter do Mobile Time e fique bem informado sobre tecnologia móvel e negócios. Cadastre-se aqui!