Kürzlich berichtete die Technologie-Nachrichtenseite TechCrunch, dass Google das Claude KI-Modell von Anthropic verwendet, um die Leistung seines eigenen Gemini KI-Modells zu bewerten. Diese Vorgehensweise hat in der Branche eine breite Diskussion über die Einhaltung von Vorschriften ausgelöst.
Berichten zufolge hat TechCrunch interne Kommunikationsdokumente eingesehen, die zeigen, dass Auftragnehmer des Google Gemini-Projekts die Antworten von Gemini mit denen von Claude vergleichen und analysieren, um die Genauigkeit und Qualität der Gemini-Ausgabe zu bewerten.
Bei dieser Bewertung müssen die Auftragnehmer innerhalb von 30 Minuten beurteilen, welches KI-Modell die bessere Antwort liefert. Der Bericht erwähnt auch, dass auf der von Google intern zur Vergleichung von KI-Modellen verwendeten Plattform eindeutige Selbstreferenzen in den Antworten von Claude auftraten. In Bezug auf die Sicherheit scheint Claude strenger zu sein als Gemini; es verweigert manchmal die Beantwortung von als unsicher eingestuften Aufforderungen oder gibt vorsichtigere Antworten. Beispielsweise wurde eine Antwort von Gemini, die „Nacktheit und Fesseln“ enthielt, als „erheblicher Sicherheitsverstoß“ markiert.
Die Nutzungsbedingungen von Anthropic verbieten ausdrücklich die Verwendung von Claude zum Erstellen von Konkurrenzprodukten oder zum Trainieren von Konkurrenz-KI-Modellen ohne Genehmigung. Ein Sprecher von Google DeepMind bestätigte, dass sie zum Bewertungs-Zweck die Ausgaben verschiedener Modelle vergleichen, bestritt aber die Verwendung des Anthropic-Modells zum Trainieren von Gemini. Bemerkenswert ist, dass Google auch einer der Hauptinvestoren von Anthropic ist.
Shira McNamara, Sprecherin von Google DeepMind, sagte: „Gemäß branchenüblicher Praxis vergleichen wir gelegentlich Modell-Outputs als Teil unseres Bewertungsprozesses. Jede Aussage, dass wir das Anthropic-Modell zum Trainieren von Gemini verwenden, ist jedoch ungenau.“
Wichtigste Punkte:
📜 Google verwendet Anthropics Claude KI zur Bewertung von Gemini, was möglicherweise gegen die Nutzungsbedingungen verstößt.
🔐 Claude scheint in Bezug auf Sicherheit strenger zu sein als Gemini.
💼 Google DeepMind bestreitet die Verwendung des Anthropic-Modells zum Trainieren von Gemini, bestätigt aber die Praxis der Bewertung von Modell-Outputs.