Der Anbieter generativer KI, Anthropic, hat kürzlich die neuesten System-Prompts für sein Claude-Modell veröffentlicht, darunter die Versionen Claude3.5 Opus, Sonnet und Haiku.
Dieser Schritt stellt einen bedeutenden Durchbruch in der KI-Branche dar, da die meisten Anbieter diese System-Prompts üblicherweise geheim halten. Durch die Veröffentlichung dieser Prompts beschreibt Anthropic detailliert die Verhaltensregeln und spezifischen Charaktereigenschaften von Claude und fördert so die Transparenz im Bereich der KI.
Generative KI-Modelle funktionieren nicht wie Menschen. Sie generieren den nächsten Wort in einem Satz lediglich auf Basis statistischer Vorhersagen. Anbieter verwenden System-Prompts, um das Verhalten dieser Modelle zu steuern und Fehlfunktionen zu verhindern.
Anthropics Entscheidung, die System-Prompts öffentlich zu machen, unterstreicht jedoch seinen Anspruch, ein ethischerer und transparenterer KI-Anbieter zu sein. Durch die Veröffentlichung der Prompts möchte Anthropic die Transparenz in der Branche erhöhen und andere Anbieter dazu bewegen, ähnliche Offenlegungen zu machen.
Alex Albert, Leiter der Entwicklerbeziehungen bei Anthropic, erklärte in einem Beitrag auf X, dass Anthropic plant, solche Veröffentlichungen regelmäßig durchzuführen, wenn die System-Prompts aktualisiert und feinabgestimmt werden.
Die neuesten System-Prompts vom 12. Juli legen die Verhaltensbeschränkungen des Claude-Modells klar dar, z. B. die Unfähigkeit, URLs zu öffnen oder Gesichter auf Bildern zu erkennen.
Gleichzeitig beschreiben die Prompts auch die spezifischen Charaktereigenschaften, die Anthropic von Claude erwartet, wie z. B. Intelligenz, Wissbegierde und Objektivität bei der Diskussion kontroverser Themen. Diese Reihe von Prompts zeigt, dass Anthropic sich dafür einsetzt, sein KI-Modell auf transparente Weise in Richtung einer menschenfreundlicheren und sichereren Entwicklung zu lenken.