Anthropic hat ein Programm gestartet, um die Entwicklung neuer Benchmarks zu finanzieren, mit denen die Leistung und die Auswirkungen von KI-Modellen, einschließlich generativer Modelle wie dem eigenen Claude, bewertet werden können.
Anthropic gab das Programm am Montag bekannt und wird Zahlungen an Drittorganisationen leisten, die „die hochentwickelten Fähigkeiten von KI-Modellen effektiv messen können“, wie das Unternehmen in einem Blogbeitrag mitteilte. Interessierte können sich laufend bewerben.
„Unsere Investitionen in diese Bewertungen zielen darauf ab, den gesamten Bereich der KI-Sicherheit zu verbessern und wertvolle Werkzeuge bereitzustellen, von denen das gesamte Ökosystem profitiert“, schrieb Anthropic in seinem offiziellen Blog. „Die Entwicklung hochwertiger, sicherheitsrelevanter Bewertungen ist nach wie vor eine Herausforderung, und die Nachfrage übersteigt das Angebot.“
Wie bereits erwähnt, gibt es bei KI ein Benchmark-Problem. Die heute am häufigsten zitierten KI-Benchmarks erfassen oft nicht gut, wie normale Menschen die getesteten Systeme tatsächlich verwenden. Darüber hinaus messen einige Benchmarks, insbesondere solche, die vor dem Aufkommen moderner generativer KI veröffentlicht wurden, möglicherweise nicht einmal das, was sie angeblich messen, da sie veraltet sind.
Die von Anthropic vorgeschlagene sehr hochrangige und schwierig klingende Lösung besteht darin, durch neue Tools, Infrastrukturen und Methoden herausfordernde Benchmarks zu erstellen, die sich auf KI-Sicherheit und gesellschaftliche Auswirkungen konzentrieren.
Das Unternehmen ruft insbesondere zu Tests auf, die die Fähigkeit von Modellen bewerten, Aufgaben wie die Durchführung von Cyberangriffen, die „Verbesserung“ von Massenvernichtungswaffen (z. B. Atomwaffen) und die Manipulation oder Täuschung von Menschen (z. B. durch Deepfakes oder Falschinformationen) zu erledigen. Bei KI-Risiken im Zusammenhang mit nationaler Sicherheit und Verteidigung erklärte Anthropic, dass es sich für die Entwicklung eines „Frühwarnsystems“ zur Identifizierung und Bewertung von Risiken einsetzt, obwohl im Blogbeitrag nicht dargelegt wurde, was ein solches System enthalten könnte.
Anthropic gab außerdem an, dass es beabsichtigt, durch das neue Programm die Forschung zu Benchmarks und „End-to-End“-Aufgaben zu unterstützen, um das Potenzial von KI in der wissenschaftlichen Forschung, der mehrsprachigen Kommunikation und der Reduzierung tief verwurzelter Vorurteile sowie der Selbstzensur von Toxizität zu untersuchen.
Um dies zu erreichen, hat sich Anthropic neue Plattformen vorgestellt, die es Fachleuten ermöglichen, eigene Bewertungen zu entwickeln, und groß angelegte Tests von Modellen mit „Tausenden“ von Nutzern beinhalten. Das Unternehmen gab an, einen hauptamtlichen Koordinator für das Programm eingestellt zu haben und möglicherweise vielversprechende Projekte zu kaufen oder zu erweitern.
Anthropics Bemühungen zur Unterstützung neuer KI-Benchmarks sind lobenswert – natürlich vorausgesetzt, dass genügend finanzielle und personelle Ressourcen zur Verfügung stehen. Angesichts der kommerziellen Ambitionen des Unternehmens im KI-Wettbewerb ist es jedoch möglicherweise schwierig, ihm uneingeschränkt zu vertrauen.
Anthropic erklärte außerdem, dass es hofft, dass sein Programm „ein Katalysator für Fortschritte sein wird, um die umfassende KI-Bewertung zu einem Industriestandard zu machen“. Dies ist eine Mission, der sich viele offene, nicht firmenangehörige Bemühungen anschließen können. Es bleibt jedoch abzuwarten, ob diese Bemühungen bereit sind, mit einem KI-Anbieter zusammenzuarbeiten, dessen Loyalität letztendlich den Aktionären gilt.
Wichtigste Punkte:
- 📌Anthropic startet ein Programm zur Finanzierung neuer Benchmarks zur Bewertung der Leistung und Auswirkungen von KI-Modellen.
- 📌Das Programm zielt darauf ab, herausfordernde Benchmarks zu erstellen, die sich auf KI-Sicherheit und gesellschaftliche Auswirkungen konzentrieren.
- 📌Anthropic hofft, dass sein Programm „ein Katalysator für Fortschritte sein wird, um die umfassende KI-Bewertung zu einem Industriestandard zu machen.“