Die gemeinnützige Forschungsgruppe Machine Intelligence Research Institute (MIRI) fordert einen weltweiten Stopp der Forschung an grundlegenden oder „führenden“ Modellen. Die Sicherheitsbedenken könnten die menschliche Existenz bedrohen. Grundmodelle sind KI-Systeme, die auf verschiedene Modi angewendet werden können. MIRI argumentiert, dass Grundmodelle intelligenter als Menschen werden und die Menschheit potenziell „vernichten“ könnten.
Bildquelle: Das Bild wurde mit KI generiert, Bildrechte liegen bei Midjourney.
In der Technologiebranche haben führende Persönlichkeiten wie Elon Musk und Steve Wozniak bereits einen Entwicklungsstopp für leistungsstärkere Grundmodelle als OpenAIs GPT-4 gefordert. MIRI geht jedoch noch weiter und fordert in seiner kürzlich veröffentlichten Kommunikationsstrategie einen vollständigen Stopp bei der Entwicklung von Systemen, die intelligenter als Menschen sind.
Die Gruppe argumentiert: „Politiker gehen Probleme hauptsächlich durch Kompromisse an: Sie geben an einer Stelle nach, um an anderer Stelle Vorteile zu erzielen. Wir befürchten, dass die meisten Gesetze zum Erhalt des menschlichen Überlebens durch den üblichen politischen Prozess gehen und zu wirkungslosen Kompromissen abgeschwächt werden. Gleichzeitig tickt die Uhr. KI-Labore investieren weiterhin in die Entwicklung und das Training immer leistungsfähigerer Systeme. Wir scheinen noch lange nicht an dem Punkt zu sein, an dem wir die notwendigen umfassenden Gesetze erhalten.“
MIRI wünscht sich, dass Regierungen Unternehmen, die Grundmodelle entwickeln, zur Installation eines „Kill Switches“ zwingen. Dieser soll die KI-Systeme abschalten können, falls diese bösartige oder „X-Risiko“-Neigungen entwickeln.
Die Non-Profit-Organisation erklärt, dass sie weiterhin an der Idee von intelligenten Systemen glaubt, die intelligenter als Menschen sind, aber hofft, dass dies erst geschieht, „wenn wir wissen, wie man solche KIs sicher baut“.
MIRI wurde 2000 von Eliezer Yudkowsky gegründet. Zu den Unterstützern gehören Peter Thiel und Vitalik Buterin, Mitgründer der Kryptowährung Ethereum. Das Future of Life Institute ist ebenfalls ein wichtiger Förderer von MIRI.
Bradley Shimmin, Chef-Analyst bei Omdia, einem Unternehmen für KI- und Datenanalyse, sagt, dass es für MIRI schwierig sein wird, Gesetzgeber zu überzeugen, da es an unterstützenden Studien mangelt. Er sagt: „Der Markt hat diese Fragen bereits berücksichtigt und ist zu dem Schluss gekommen, dass der aktuelle und kurzfristige zukünftige Stand der Technik bei auf Transformatoren basierenden GenAI-Modellen kaum etwas anderes tun kann, als nützliche Repräsentationen komplexer Themen zu erstellen.“ Shimmin sagt, MIRI identifiziere zu Recht die Wissenslücke zwischen dem Bau und der Regulierung von KI.
Wichtigste Punkte:
- 📣Die gemeinnützige Forschungsgruppe Machine Intelligence Research Institute (MIRI) fordert einen weltweiten Stopp der Forschung an grundlegenden oder „führenden“ Modellen, da Sicherheitsbedenken die menschliche Existenz bedrohen könnten.
- 🤖MIRI wünscht sich, dass Regierungen Unternehmen, die Grundmodelle entwickeln, zur Installation eines „Kill Switches“ zwingen, um KI-Systeme bei bösartigen oder „X-Risiko“-Neigungen abschalten zu können.
- 🌐Bradley Shimmin, Chef-Analyst bei Omdia, einem Unternehmen für KI- und Datenanalyse, sagt, dass es für MIRI aufgrund fehlender unterstützender Forschung schwierig sein wird, Gesetzgeber zu überzeugen.