Mundo Novo Normal Tecnologia

ChatGPT é ‘derrotado’ por programa de computador da década de 1960 em estudo o sobre teste de Turing

JSNEWS – Um dos primeiros programas de computador construído na década de 1960 venceu o chatbot de IA o ChatGPT no teste de Turing, que foi projetado para diferenciar os humanos da inteligência artificial.

Pesquisadores da UC San Diego, no estado americano da Califórnia, testaram o primeiro chatbot ELIZA, criado em meados da década de 1960 pelo cientista do MIT Joseph Weizenbaum, contra versões modernas da tecnologia.

Eles descobriram que o ELIZA superou o GPT-3.5 AI da OpenAI, que alimenta a versão gratuita do ChatGPT.

O teste de Turing tem sido a referência para determinar a capacidade de uma máquina imitar a conversa humana desde que foi concebido pela primeira vez em 1950 pelo cientista da computação britânico Alan Turing.

O último estudo exigiu que 652 participantes humanos julgassem se estavam conversando com outro ser humano ou com um chatbot de IA pela Internet.

O chatbot GPT-4 da OpenAI, que é mais poderoso que a versão gratuita da tecnologia, conseguiu enganar os participantes do estudo com mais frequência do que o ELIZA, com uma taxa de sucesso de 41%. ELIZA conseguiu se passar por humano 27% das vezes, enquanto o GPT-3.5 teve uma taxa de sucesso de apenas 14%.

O especialista em IA Gary Marcus descreveu o sucesso do ELIZA comoembaraçoso” para as empresas de tecnologia modernas que trabalham em chatbots de IA, no entanto, outros acadêmicos argumentaram que o ChatGPT não foi projetado para ter um bom desempenho no teste de Turing.

“Acho que o fato de o GPT-3.5 perder para o ELIZA não é tão surpreendente quando você lê o artigo”, disse Ethan Mollick, professor de IA da Wharton School nos EUA em uma postagem na rede social em X, antigo Twitter. “A OpenAI considerou o risco de personificação uma preocupação real e tem RLHF [reinforcement learning from human feedback] para garantir que o ChatGPT não tente se passar por humano. Já o ELIZA foi projetado para passar por um humano usando a psicologia”, disse.

Uma das razões observadas no estudo para os participantes confundirem ELIZA com um ser humano foi que era “muito ruim” para ser um modelo atual de IA e, portanto, “era mais provável que fosse um ser humano intencionalmente não cooperativo”.

Deixe um comentário

WordPress Ads