Haupttext:Die Anwendung von Künstlicher Intelligenz (KI) im Gesundheitswesen gewinnt zunehmend an Bedeutung. Insbesondere Chatbots wie ChatGPT werden von vielen Krankenhäusern als unterstützende Werkzeuge zur Steigerung der Diagnoseeffizienz von Ärzten gesehen. Eine kürzlich veröffentlichte Studie zeigt jedoch, dass die Verwendung von ChatGPT die diagnostischen Fähigkeiten von Ärzten nicht signifikant verbessert. Diese Studie, die im Journal „JAMA Network Open“ veröffentlicht wurde, beleuchtet das Potenzial und die Grenzen von KI in der medizinischen Diagnostik.

KI-Forschung KI-Medizin Arzt

Bildquelle: Das Bild wurde mit Hilfe von KI (Midjourney) generiert.

An der Studie nahmen 50 Ärzte teil, darunter 26 Oberärzte und 24 Assistenzärzte. Sie wurden aufgefordert, innerhalb einer Stunde Diagnosen zu sechs realen Fällen zu stellen. Um die unterstützende Wirkung von ChatGPT zu bewerten, teilten die Forscher die Ärzte in zwei Gruppen ein: Eine Gruppe konnte ChatGPT und herkömmliche medizinische Ressourcen nutzen, die andere Gruppe nur herkömmliche Ressourcen wie die klinische Informationsplattform UpToDate.

Die Ergebnisse zeigten, dass die Ärzte, die ChatGPT nutzten, eine Punktzahl von 76 % in der Diagnose erzielten, während die Ärzte, die nur auf herkömmliche Ressourcen zurückgriffen, eine Punktzahl von 74 % erzielten. Im Vergleich dazu erreichte ChatGPT bei der alleinigen Durchführung der Diagnose eine Punktzahl von 90 %. Obwohl ChatGPT bei der unabhängigen Arbeit hervorragende Leistungen zeigte, führte die Kombination mit Ärzten unerwartet zu keiner signifikanten Verbesserung.

Ethan Goh, Postdoktorand am Stanford Clinical Excellence Research Center und Co-Erstautor der Studie, erklärte, dass das Studiendesign nicht in einem realen klinischen Umfeld, sondern auf simulierten Daten basierte, wodurch die Anwendbarkeit der Ergebnisse eingeschränkt ist. Er betonte, dass die Komplexität, der sich Ärzte bei der Behandlung realer Patienten gegenübersehen, im Experiment nicht vollständig abgebildet werden konnte.

Obwohl die Studie zeigt, dass ChatGPT in der Diagnose besser abschneidet als einige Ärzte, bedeutet dies nicht, dass KI die Entscheidungen von Ärzten ersetzen kann. Goh betonte vielmehr, dass Ärzte bei der Verwendung von KI-Tools weiterhin Aufsicht und Urteilsvermögen ausüben müssen. Darüber hinaus könnten Ärzte zu einer gewissen Starrheit in ihrer Diagnose neigen, wobei eine bereits aufgestellte vorläufige Diagnose die Akzeptanz von KI-Empfehlungen beeinflussen könnte. Dies ist ein weiterer Aspekt, der in zukünftigen Studien untersucht werden sollte.

Nach Abschluss des Diagnoseprozesses müssen die Ärzte noch eine Reihe weiterer Fragen beantworten, z. B. „Wie sieht der korrekte Behandlungsverlauf aus?“ und „Welche Tests sind notwendig, um die weiteren Schritte des Patienten zu leiten?“. Dies zeigt, dass die Anwendung von KI im Gesundheitswesen noch großes Potenzial birgt, aber ihre Wirksamkeit und Anwendbarkeit in der klinischen Praxis weiter erforscht werden muss.

Wichtigste Punkte:

🔍 Die Studie zeigt, dass die Verwendung von ChatGPT bei Ärzten nur eine geringfügig bessere Diagnosegenauigkeit im Vergleich zu traditionellen Methoden ergab, keine signifikante Verbesserung.

🤖 ChatGPT erzielte bei der unabhängigen Diagnose eine Punktzahl von 90 % und zeigte eine hervorragende Leistung, erfordert aber weiterhin die Aufsicht und das Urteil eines Arztes.

📈 Zukünftige Forschung ist notwendig, um die Optimierung der Anwendung von KI in der medizinischen Diagnostik zu untersuchen und deren Wirksamkeit zu verbessern.