Na história do desenvolvimento da inteligência artificial, o Teste de Turing sempre foi um marco importante. Recentemente, pesquisadores do Departamento de Ciência Cognitiva da Universidade da Califórnia em San Diego realizaram uma replicação do Teste de Turing com o GPT-4, e os resultados foram impressionantes.

Eles recrutaram 500 participantes para conversar com quatro agentes, incluindo um humano real e três modelos de IA: o programa ELIZA da década de 1960, o GPT-3.5 e o GPT-4. Após uma conversa de cinco minutos, os participantes precisavam determinar se estavam interagindo com um humano ou com uma IA.

image.png

Os resultados do experimento mostraram que o GPT-4 foi erroneamente identificado como humano em 54% das vezes, enquanto a taxa para ELIZA foi de apenas 22%, para GPT-3.5 foi de 50% e para o humano real foi de 67%. Este resultado forneceu, pela primeira vez, evidências experimentais de que sistemas de inteligência artificial podem se passar por humanos em testes de Turing interativos.

1.jpg

Os pesquisadores também descobriram que os participantes tendiam a usar mais conversas casuais e estratégias socioemocionais para fazer seus julgamentos. Eles basearam suas decisões no conteúdo da conversa e no comportamento dos agentes, principalmente no estilo de linguagem e nos fatores socioemocionais. Esta descoberta tem implicações importantes para a discussão sobre inteligência artificial, sugerindo que sistemas de IA podem enganar humanos em aplicações reais.

Este estudo é significativo, pois não apenas sugere que os sistemas de IA atuais podem enganar humanos em aplicações práticas, mas também tem um profundo impacto na discussão sobre inteligência artificial. As pessoas podem ter cada vez mais dificuldade em distinguir se estão interagindo com um humano ou com uma IA, o que apresenta novos desafios para questões éticas, de privacidade e segurança da inteligência artificial.