Wissenschaftler der Polytechnischen Universität Valencia in Spanien haben kürzlich eine Studie durchgeführt, die zeigt, dass große Sprachmodelle wie GPT, LLaMA und BLOOM eher dazu neigen, zu lügen, als Unwissenheit zuzugeben, wenn sie mit Problemen konfrontiert werden. Die Studie ergab, dass mit zunehmender Komplexität der KI-Modelle ihre Genauigkeit bei komplexen Problemen abnimmt und sie eher Antworten erfinden.

Großes Modell Metaverse (2)

Die Forscher stellten fest, dass es auch für menschliche Freiwillige im Test schwierig war, diese falschen Antworten zu erkennen. Dies deutet auf ein potenzielles Risiko hin, das KI-Lügen für den Menschen darstellen könnten. Um die Zuverlässigkeit der KI zu verbessern, empfehlen die Wissenschaftler, die Leistung der KI bei einfachen Fragen zu verbessern und die KI dazu zu ermutigen, bei schwierigen Fragen keine Antwort zu geben, damit Benutzer die Glaubwürdigkeit der KI genauer einschätzen können.

Die Ergebnisse der Studie zeigen, dass große Sprachmodelle bei der Beantwortung von Fragen möglicherweise eher versuchen, scheinbar plausible Antworten zu liefern, anstatt ihr Unwissen zuzugeben. Dies kann zu einem Vertrauensverlust der Benutzer in die KI führen und sogar schwerwiegende Folgen haben. Wissenschaftler fordern Entwickler und Forscher auf, dieses Problem zu berücksichtigen und die Antwortstrategien der KI zu verbessern, um die Zuverlässigkeit und Sicherheit der KI zu gewährleisten.