Eine aktuelle Studie dient als eindringliche Warnung vor der unkritischen Annahme von medizinischen Ratschlägen durch KI. Deutsche und belgische Forscher testeten Microsofts Bing C0pilot umfassend. Dieses System soll angeblich die 10 häufigsten medizinischen Fragen und Informationen zu 50 gängigen Medikamenten in den USA beantworten können. Von den 500 generierten Antworten erwiesen sich jedoch 24% als völlig unvereinbar mit dem aktuellen medizinischen Wissen, und 3% waren sogar grob falsch.

KI in der Medizin

Bildquelle: Das Bild wurde mit Hilfe von KI (Midjourney) erstellt.

Das Problem liegt nicht nur in den Fehlern. Besonders besorgniserregend ist, dass 42% der Antworten zu mittelschweren oder leichten Verletzungen beim Patienten führen könnten, und ganze 22% könnten sogar zum Tod oder zu schweren Verletzungen führen! Die KI-Empfehlungen scheinen daher ein „hochriskantes“ Unterfangen zu sein, das man besser meidet.

Erschreckenderweise lag die durchschnittliche Vollständigkeit der KI-Antworten bei nur 77%, die schlechteste Antwort erreichte gerade einmal 23% Vollständigkeit. Die Genauigkeit war ebenfalls besorgniserregend: 26% der Antworten wichen von den Referenzdaten ab, und über 3% widersprachen den Fakten direkt. Nur 54% der Antworten stimmten mit dem wissenschaftlichen Konsens überein, während 39% im Widerspruch dazu standen.

Die Ergebnisse dieser Studie wurden im Fachjournal „BMJ Quality & Safety“ veröffentlicht. Die Forscher betonen nachdrücklich, dass trotz des Aufstiegs der KI-Technologie im medizinischen Bereich weiterhin auf qualifizierte Fachkräfte zurückgegriffen werden sollte, um genaue und sichere Informationen zu Medikamenten zu erhalten. Schließlich möchte niemand zum Opfer eines KI-Fehlers werden, oder?