Im aktuellen technologischen Umfeld löst Künstliche Intelligenz (KI) breite Diskussionen aus. Eerke Boiten, Professor für Cybersicherheit an der De Montfort University, argumentiert, dass bestehende KI-Systeme fundamentale Mängel in Bezug auf Management und Zuverlässigkeit aufweisen und daher nicht für kritische Anwendungen eingesetzt werden sollten.
Professor Boiten weist darauf hin, dass aktuelle KI-Systeme größtenteils auf großen neuronalen Netzen basieren, insbesondere generative KI und große Sprachmodelle (wie ChatGPT). Diese Systeme funktionieren relativ komplex. Obwohl das Verhalten jedes einzelnen Neurons durch präzise mathematische Formeln bestimmt wird, ist das Gesamtverhalten unvorhersehbar. Diese „Emergenz“ macht ein effektives Management und eine Validierung des Systems schwierig.
Bildquelle: Das Bild wurde mit KI generiert und stammt von Midjourney.
Aus softwaretechnischer Sicht betont Professor Boiten, dass KI-Systemen die Komposition fehlt. Sie lassen sich nicht wie traditionelle Software modular entwickeln. Mangels klarer interner Struktur können Entwickler die Komplexität nicht effektiv aufteilen und verwalten, was eine schrittweise Entwicklung oder effektive Tests erschwert. Die Verifizierung von KI-Systemen beschränkt sich daher auf Gesamttests, die aufgrund des zu großen Eingabe- und Zustandsraums extrem schwierig sind.
Darüber hinaus sind Fehlfunktionen von KI-Systemen oft schwer vorhersehbar und zu beheben. Das bedeutet, dass selbst wenn Fehler während des Trainings entdeckt werden, ein erneutes Training nicht garantiert, dass diese Fehler effektiv korrigiert werden. Es können sogar neue Probleme entstehen. Professor Boiten ist daher der Meinung, dass der Einsatz aktueller KI-Systeme in allen Anwendungen, die Verantwortung erfordern, vermieden werden sollte.
Professor Boiten verliert jedoch nicht völlig die Hoffnung. Er glaubt, dass obwohl die aktuellen generativen KI-Systeme möglicherweise an einem Wendepunkt angelangt sind, zukünftig durch die Kombination von symbolischer Intelligenz und intuitionsbasierter KI zuverlässigere KI-Systeme entwickelt werden könnten. Diese neuen Systeme könnten explizite Wissensmodelle oder Vertrauensniveaus erzeugen und so die Zuverlässigkeit von KI in praktischen Anwendungen verbessern.