A OpenAI, criadora do ChatGPT, disponibilizou uma ferramenta treinada para distinguir entre textos escritos por seres humanos e inteligência artificial (IA), na última terça-feira, 31. Em comunicado, a companhia frisou que o classificador ainda não é “totalmente confiável”, já que é impossível detectar qualquer texto gerado por IA.
Segundo a organização, ele pode ser útil para mitigar alegações falsas de que textos gerados por IA foram escritos por humanos. Entre suas inúmeras finalidades, ferramentas como o ChatGPT podem ser usadas em campanhas automatizadas de desinformação, para trapacear no mundo acadêmico ou até mesmo fingir que um chatbot é um ser humano.
O classificador é um modelo de linguagem baseado em pares de textos de humanos e IA sobre um mesmo assunto. De acordo com os testes da OpenAI com textos em inglês, a ferramenta identificou corretamente 26% dos textos de IA como “provavelmente escritos por IA”, enquanto 9% dos textos escritos por humanos foram classificados como feitos por IA. Sua confiabilidade aumenta ao passo que o tamanho do texto também cresce.
Devido às limitações, a companhia orientou que o classificador não seja utilizado como uma ferramenta primária para tomar decisões, mas sim como um complemento a outros métodos usados para determinar a fonte de um texto. A ferramenta lida melhor com trabalhos com mais de 1 mil caracteres e a recomendação é que sejam usados apenas textos em inglês.
A OpenAI reconheceu que produções escritas por IA têm sido uma discussão relevante na educação. A companhia, que continuará a trabalhar nesse tipo de classificador, está conversando com educadores nos EUA para saber o que eles estão vendo nas salas de aula, além de discutir as capacidades e limitações do ChatGPT. A intenção da OpenAI, ao tornar o classificador público, é saber se “ferramentas imperfeitas” como essa são úteis ou não.