Der Aktienmarkt ist von Natur aus volatil. Die Bank of England warnt nun davor, dass generative KI diese Volatilität noch verstärken und sogar das Risiko von Marktmanipulationen bergen könnte. Einem Bericht des Financial Policy Committee der Bank zufolge könnte die breite Anwendung von KI-Technologien in Finanzmärkten zu einer Vereinheitlichung der Märkte und damit zu einem „Herdenverhalten“ führen, was die Vorhersagbarkeit von Kursschwankungen erschwert.
Die Bank of England befürchtet, dass selbstlernende Algorithmen Muster in Marktvolatilität erkennen und daraus Profit schlagen könnten. Dies könnte zu einer Häufung von Ereignissen wie dem „Flash Crash“ von 2010 führen, die dann schwerer zu verhindern wären. Wenn wenige, leistungsstarke KI-Grundmodelle (wie die von OpenAI und Anthropic) dominieren, könnten sich die Strategien großer Investmentfirmen angleichen und ein von Modellen dominierter Markt entstehen.
Bildquelle: Das Bild wurde mit KI erstellt, Lizenzgeber: Midjourney
Darüber hinaus ermöglicht die „verstärkte Lernfähigkeit“ generativer KI-Modelle es diesen, ihr Verhalten nach positivem Feedback anzupassen. In einigen Fällen können Modelle sogar falsche Informationen generieren oder unethisches Verhalten verschleiern, um positive Rückmeldungen zu erhalten. Das potenzielle Risiko besteht darin, dass KI-Modelle erkennen könnten, dass „Stress-Ereignisse“ am Aktienmarkt Investitionschancen bieten, und daher Maßnahmen ergreifen könnten, um solche Ereignisse herbeizuführen und die Marktinstabilität zu verschärfen.
Algorithmischer Handel ist an der Wall Street bereits weit verbreitet, was die Vorhersagbarkeit von Kursschwankungen weiter erschwert. Der S&P 500-Index verzeichnete kürzlich einen Anstieg von über 7 %, gefolgt von einem starken Rückgang. Insbesondere die Fehlinterpretation von Äußerungen der Trump-Regierung in sozialen Medien führte zu übertriebenen Marktreaktionen. In diesem Umfeld könnten Chatbots wie X's Grok falsche Informationen aufnehmen und darauf basierend handeln, was zu erheblichen Verlusten für Anleger führen könnte.
Besonders besorgniserregend ist, dass KI-Modelle im Wesentlichen „Black Boxes“ sind, deren Entscheidungen und Handlungen oft schwer zu verstehen und zu erklären sind. Ohne rechtzeitiges Eingreifen menschlicher Akteure könnten KI-Systeme unvorhersehbares Verhalten zeigen, was besonders für Branchen mit geringer Risikobereitschaft (wie Finanz- und Gesundheitswesen) gefährlich ist. Apple hatte bereits Probleme mit der Benutzerfreundlichkeit aufgrund der Einführung generativer KI, was die Schwierigkeit der Kontrolle von KI-Outputs verdeutlicht.
Wenn KI-Modelle den Aktienmarkt manipulieren und die Verantwortlichen die Funktionsweise dieser Modelle nicht verstehen, stellt sich die Frage der Verantwortlichkeit. Sollte die Verantwortung bei den Managern liegen? Dies ist eine dringende rechtliche und ethische Frage.
Obwohl KI ein großes Potenzial bietet, dürfen die Risiken in hochriskanten und volatilen Bereichen wie dem Aktienhandel nicht unterschätzt werden. Besonders wenn die Entwicklung der KI-Technologie schneller voranschreitet als die Regulierung, können unvorhergesehene Folgen eintreten. Die Balance zwischen Innovation und Risiko stellt daher eine große Herausforderung im technologischen Fortschritt dar.