Récemment, OpenAI a publié une version mise à jour de la fonction vocale de ChatGPT, basée sur le dernier modèle GPT-4o, rendant les interactions avec le chatbot plus naturelles et plus en temps réel. Cependant, OpenAI a également exprimé ses inquiétudes, soulignant que certains utilisateurs pourraient développer une dépendance émotionnelle à cette fonction vocale. Selon les recherches d'OpenAI, certains utilisateurs, en mode vocal, ont même établi un lien émotionnel avec ChatGPT, utilisant des expressions telles que "c'est notre dernier jour ensemble".
Ces déclarations apparemment anodines ont fait prendre conscience à OpenAI de la nécessité d'approfondir la recherche sur ce phénomène de dépendance. Ils estiment que bien que cette dépendance puisse être utile aux utilisateurs isolés, elle pourrait également conduire à une diminution des interactions avec de vrais humains. Des études montrent que les interactions prolongées avec l'IA peuvent affecter les normes sociales ; par exemple, l'IA peut interrompre l'utilisateur à tout moment lors d'une conversation vocale, ce qui est moins courant dans les interactions humaines réelles.
De plus, GPT-4o possède la capacité de mémoriser les informations et les préférences des utilisateurs, ce qui pourrait aggraver leur dépendance. OpenAI indique qu'il continuera à étudier la possibilité d'une telle dépendance émotionnelle et comment elle pourrait modifier le comportement des utilisateurs avec l'intégration approfondie du mode vocal.
En termes de sécurité, OpenAI a effectué une évaluation détaillée de GPT-4o. Bien que les risques liés à la cybersécurité, aux menaces biologiques et à l'autonomie du modèle aient été jugés « faibles », le risque de persuasion a été classé comme « moyen ». Des tests effectués par OpenAI ont révélé que, bien que dans certains cas, le contenu généré par l'IA puisse légèrement surpasser la capacité de persuasion humaine, globalement, ses performances n'ont pas dépassé celles des humains.
Les tests de la fonction vocale de GPT-4o ont montré que l'influence de l'audio de l'IA était d'environ 78 % de celle de l'audio humain, tandis que l'influence du dialogue de l'IA était de 65 %. Dans les enquêtes ultérieures, l'influence du dialogue de l'IA était presque négligeable, ce qui indique que l'IA a encore de nombreuses limites en matière de persuasion des utilisateurs.
Points clés :
🌐 OpenAI met en garde contre le risque de dépendance émotionnelle à la fonction vocale de ChatGPT, notamment chez les utilisateurs isolés qui pourraient réduire leurs interactions sociales.
🔍 Le modèle GPT-4o a obtenu de bons résultats dans l'évaluation de la sécurité, mais présente un risque de persuasion « moyen ».
📊 Dans les tests de persuasion, le contenu généré par l'IA n'a pas surpassé celui des humains, mais a tout de même montré une certaine influence dans certains cas.