Recentemente, a OpenAI lançou uma versão atualizada do recurso de voz do ChatGPT, baseada no mais recente modelo GPT-4o, tornando a interação com o chatbot mais natural e em tempo real. No entanto, a OpenAI também expressou preocupações, indicando que alguns usuários podem desenvolver uma dependência emocional desse recurso de voz. De acordo com pesquisas da OpenAI, alguns usuários, ao usar o modo de voz, até mesmo formam laços emocionais com o ChatGPT, usando expressões como "este é o nosso último dia juntos".
Essas declarações aparentemente inofensivas fizeram a OpenAI perceber a necessidade de pesquisas adicionais sobre esse fenômeno de dependência. Eles acreditam que, embora essa dependência possa ser útil para usuários solitários, também pode levar as pessoas a reduzir a interação com humanos reais. Estudos mostram que a interação prolongada do usuário com a IA pode afetar as normas sociais, como, por exemplo, a IA pode interromper o usuário a qualquer momento em uma conversa de voz, algo incomum nas interações humanas reais.
Além disso, o GPT-4o também possui a capacidade de memorizar informações e preferências do usuário, o que pode agravar ainda mais a dependência. A OpenAI afirma que continuará a pesquisar a possibilidade dessa dependência emocional e como essa dependência emocional pode mudar o comportamento do usuário com a integração profunda do modo de voz.
Em termos de segurança, a OpenAI realizou uma avaliação detalhada do GPT-4o. Embora os riscos em áreas como segurança cibernética, ameaças biológicas e autonomia do modelo tenham sido classificados como "baixos", a capacidade de persuasão atingiu um risco "moderado". Testes da OpenAI mostraram que, embora em alguns casos o conteúdo gerado pela IA possa superar ligeiramente a capacidade de persuasão humana, em geral, seu desempenho não superou o dos humanos.
Testes com o recurso de voz do GPT-4o mostraram que a influência do áudio de IA é de aproximadamente 78% da influência do áudio humano, enquanto a influência da conversa de IA é de 65%. Em investigações subsequentes, a influência da conversa de IA tornou-se quase insignificante, indicando que a IA ainda apresenta muitas limitações em termos de persuasão do usuário.
Destaques:
🌐 A OpenAI alerta que os usuários podem desenvolver dependência emocional do recurso de voz do ChatGPT, especialmente usuários solitários que podem reduzir a interação social.
🔍 O modelo GPT-4o apresentou bom desempenho na avaliação de segurança, mas atingiu um risco "moderado" em termos de capacidade de persuasão.
📊 O conteúdo gerado por IA não superou os humanos em testes de persuasão, mas ainda apresentou certa influência em alguns casos.