Im Verlauf der Entwicklung der künstlichen Intelligenz war der Turing-Test immer ein wichtiger Meilenstein. Kürzlich führten Forscher der Abteilung für Kognitionswissenschaften der University of California, San Diego, ein Replikations-Experiment des Turing-Tests mit GPT-4 durch, mit bemerkenswerten Ergebnissen.
Sie rekrutierten 500 Teilnehmer, die sich mit vier Agenten unterhielten, darunter ein echter Mensch und drei KI-Modelle: das ELIZA-Programm aus den 1960er Jahren, GPT-3.5 und GPT-4. Nach einem fünfminütigen Gespräch mussten die Teilnehmer beurteilen, ob sie mit einem Menschen oder einer KI kommunizierten.
Die Ergebnisse zeigten, dass GPT-4 mit einer Wahrscheinlichkeit von 54 % fälschlicherweise für einen Menschen gehalten wurde, während ELIZA nur bei 22 %, GPT-3.5 bei 50 % und ein echter Mensch bei 67 % korrekt identifiziert wurde. Dieses Ergebnis liefert erstmals experimentelle Beweise dafür, dass künstliche Intelligenz-Systeme im interaktiven, zweipersonalen Turing-Test gut genug sind, um sich als Mensch auszugeben.
Die Forscher stellten außerdem fest, dass die Teilnehmer bei der Beurteilung eher Smalltalk und sozio-emotionale Strategien verwendeten. Sie stützten ihre Urteile auf den Inhalt des Gesprächs und das Verhalten des Agenten, hauptsächlich auf den Sprachstil und sozio-emotionale Faktoren. Diese Entdeckung hat erhebliche Auswirkungen auf die Diskussion über maschinelle Intelligenz und zeigt, dass KI-Systeme Menschen in der Praxis täuschen könnten.
Diese Studie ist von großer Bedeutung. Sie deutet nicht nur darauf hin, dass aktuelle KI-Systeme Menschen in der Praxis täuschen könnten, sondern hat auch tiefgreifende Auswirkungen auf die Diskussion über maschinelle Intelligenz. Im Umgang mit KI wird es für Menschen möglicherweise immer schwieriger zu unterscheiden, ob es sich um einen Menschen handelt. Dies stellt neue Herausforderungen für die Ethik, den Datenschutz und die Sicherheit von künstlicher Intelligenz dar.