Dans l'histoire du développement de l'intelligence artificielle, le test de Turing a toujours été une étape importante. Récemment, des chercheurs du département de sciences cognitives de l'université de Californie à San Diego ont reproduit une expérience du test de Turing avec GPT-4, et les résultats sont remarquables.

Ils ont recruté 500 participants pour converser avec quatre agents, dont un humain réel et trois modèles d'IA : le programme ELIZA des années 1960, GPT-3.5 et GPT-4. Après une conversation de cinq minutes, les participants devaient déterminer s'ils interagissaient avec un humain ou une IA.

image.png

Les résultats de l'expérience montrent que GPT-4 a été erronément pris pour un humain dans 54 % des cas, contre 22 % pour ELIZA, 50 % pour GPT-3.5 et 67 % pour un humain réel. Ce résultat fournit pour la première fois des preuves expérimentales montrant que les systèmes d'intelligence artificielle peuvent désormais se faire passer pour des humains dans un test de Turing interactif à deux.

1.jpg

Les chercheurs ont également constaté que les participants avaient tendance à utiliser des conversations informelles et des stratégies socio-émotionnelles pour faire leur jugement. Ils se sont basés sur le contenu de la conversation et le comportement des agents, principalement sur le style linguistique et les facteurs socio-émotionnels. Cette découverte a une importance significative pour le débat sur l'intelligence artificielle, montrant que les systèmes d'IA peuvent potentiellement tromper les humains dans des applications réelles.

Cette recherche est d'une importance capitale. Elle suggère non seulement que les systèmes d'IA actuels peuvent tromper les humains dans des applications réelles, mais elle a également un impact profond sur le débat sur l'intelligence artificielle. Il sera de plus en plus difficile pour les gens de distinguer un humain d'une IA lors d'une interaction, ce qui pose de nouveaux défis en matière d'éthique, de confidentialité et de sécurité de l'intelligence artificielle.