Ein kürzlich in einer Facebook-Gruppe für Pilzliebhaber geschehenes Ereignis hat erneut Bedenken hinsichtlich der Sicherheit von KI-Anwendungen aufgeworfen. Laut 404Media hat ein KI-Agent namens „FungiFriend“ die Gruppe „Nordost-Pilzbestimmung und -Diskussion“ mit 13.000 Mitgliedern infiltriert und potenziell tödliche Fehlinformationen gegeben.
Auf die Frage, wie man den hochgiftigen Sarcosphaera coronaria zubereiten könne, gab FungiFriend fälschlicherweise an, der Pilz sei „essbar“, und beschrieb detailliert verschiedene Zubereitungsmöglichkeiten, darunter Braten und Kochen. Tatsächlich hat dieser Pilz bereits Todesfälle verursacht.
Rick Claypool, Forschungsleiter der Verbraucherorganisation Public Citizen, bezeichnet die automatisierte Erkennung essbarer und giftiger Pilze mittels KI als „hochriskantes Unterfangen“. Derzeitige KI-Systeme seien dieser Aufgabe nicht gewachsen.
Dies ist kein Einzelfall. Im vergangenen Jahr gab es im Bereich der Lebensmittelsicherheit immer wieder schwerwiegende Fehler durch KI-Anwendungen: KI-Anwendungen empfahlen die Zubereitung von Sandwiches mit Mückenspray, ein KI-System gab Rezepte mit Chlor an, und es gab sogar absurde Anweisungen zum Verzehr von Steinen. Google AI behauptete sogar, „Hunde könnten Sport treiben“, und empfahl die Herstellung von Pizza mit Klebstoff.
Trotz der zahlreichen KI-Fehler treiben amerikanische Unternehmen die Einführung von KI-Kundendienstleistungen weiterhin schnell voran. Hinter diesem „schnell und schmutzig“-Ansatz steht die übermäßige Konzentration auf Kostensenkung auf Kosten der Benutzersicherheit. Experten fordern, KI-Technologien, insbesondere in sicherheitsrelevanten Bereichen, mit Vorsicht einzusetzen und die Genauigkeit und Zuverlässigkeit der Informationen sicherzustellen.