Meta hat kürzlich einen neuen Rahmen für Risikomanagement veröffentlicht, der darauf abzielt, die Risiken fortschrittlicher KI-Modelle zu bewerten und zu mindern und die Entwicklung oder Veröffentlichung dieser Systeme gegebenenfalls zu stoppen. Dieser Rahmen, der als „Framework für fortschrittliche KI“ bezeichnet wird, beschreibt detailliert, wie Meta KI-Modelle in hochriskante und kritische Risiken einteilt und entsprechend Maßnahmen ergreift, um die Risiken auf ein „akzeptables Niveau“ zu senken.
In diesem Rahmen werden kritische Risiken als solche definiert, die einzigartig zur Ausführung bestimmter Bedrohungsszenarien beitragen können. Hohe Risiken bedeuten, dass ein Modell die Wahrscheinlichkeit der Realisierung von Bedrohungsszenarien deutlich erhöhen kann, aber nicht direkt zur Ausführung beiträgt. Zu den Bedrohungsszenarien gehören die Verbreitung biologischer Waffen mit vergleichbarer Kapazität wie bekannte biologische Agenzien sowie umfassende wirtschaftliche Schäden für Einzelpersonen oder Unternehmen durch groß angelegte, langwierige Betrügereien und Scams.
Bei Modellen, die die kritische Risikogrenze erreichen, wird Meta die Entwicklung einstellen und den Zugriff auf das Modell nur wenigen Experten ermöglichen. Gleichzeitig werden, sofern technisch und wirtschaftlich machbar, Sicherheitsmaßnahmen gegen Hackerangriffe oder Datenlecks implementiert. Bei Modellen mit hohem Risiko wird Meta den Zugriff beschränken und Risikominderungsmaßnahmen ergreifen, um das Risiko auf ein mittleres Niveau zu senken und sicherzustellen, dass das Modell die Ausführung von Bedrohungsszenarien nicht signifikant erhöht.
Meta gibt an, dass der Risikobewertungsprozess Experten aus verschiedenen Disziplinen und Führungskräfte des Unternehmens einbeziehen wird, um sicherzustellen, dass alle Perspektiven berücksichtigt werden. Dieser neue Rahmen gilt nur für die fortschrittlichsten Modelle und Systeme des Unternehmens, deren Fähigkeiten dem aktuellen Stand der Technik entsprechen oder diesen übertreffen.
Meta hofft, durch die Weitergabe seiner Methoden zur Entwicklung fortschrittlicher KI-Systeme die Transparenz zu erhöhen und die Diskussion und Forschung über die wissenschaftliche Bewertung und Quantifizierung von KI-Risiken zu fördern. Gleichzeitig betont das Unternehmen, dass sich der Entscheidungsprozess zur KI-Bewertung mit der Weiterentwicklung der Technologie weiterentwickeln und verbessern wird, einschließlich der Sicherstellung, dass die Ergebnisse der Testumgebung die tatsächliche Leistung des Modells im laufenden Betrieb realistisch widerspiegeln.
Wichtigste Punkte:
🌟 Meta führt einen neuen Rahmen für die Risikomanagementpolitik ein, um die Risiken fortschrittlicher KI-Modelle zu bewerten und zu mindern.
🔒 Bei Modellen mit kritischen Risiken wird die Entwicklung eingestellt und der Zugriff auf Experten beschränkt; bei Modellen mit hohem Risiko werden Zugriffsbeschränkungen und Minderungsmaßnahmen implementiert.
🧑🏫 Der Risikobewertungsprozess wird Experten aus verschiedenen Disziplinen einbeziehen, um Transparenz und Wissenschaftlichkeit zu gewährleisten.