Der Wettbewerb unter den Tech-Giganten im Bereich KI spitzt sich immer weiter zu. Eine kürzlich bekannt gewordene Nachricht hat die untergründigen Spannungen in der Branche wieder an die Oberfläche gebracht. Interne Kommunikationsinhalte, die TechCrunch zugespielt wurden, zeigen, dass Auftragnehmer, die an der Verbesserung des Google Gemini KI-Modells arbeiten, dessen Antworten mit den Ergebnissen des Konkurrenzmodells Claude von Anthropic verglichen haben. Dies wirft die Frage nach der rechtlichen Zulässigkeit auf, ob Google die Erlaubnis von Anthropic zur Verwendung von Claude für Tests erhalten hat.

In Zeiten, in denen Technologieunternehmen um die Entwicklung immer besserer KI-Modelle wetteifern, werden die Modellleistungen in der Regel anhand von Branchen-Benchmark-Tests bewertet, nicht indem Auftragnehmer viel Zeit und Mühe in die Bewertung von Antworten der Konkurrenz investieren. Den Berichten zufolge mussten die Gemini-Auftragnehmer jedoch jede Antwort nach Kriterien wie Wahrheitsgehalt und Länge bewerten. Sie hatten maximal 30 Minuten Zeit, um zu beurteilen, welche Antwort, die von Gemini oder Claude, besser war.

Gemini, Google DeepMind, Künstliche Intelligenz, KI

Interne Chatprotokolle zeigen, dass die Auftragnehmer bemerkten, dass Claudes Antworten einen stärkeren Fokus auf Sicherheit zu legen schienen. Ein Auftragnehmer sagte: „Unter allen KI-Modellen hat Claude die strengsten Sicherheitseinstellungen.“ In einigen Fällen antwortete Claude nicht auf Aufforderungen, die er als unsicher einstufte, z. B. die Simulation verschiedener KI-Assistenten. In einem anderen Test vermied Claude die Beantwortung einer Aufforderung, während Geminis Antwort wegen der Erwähnung von „Nacktheit und Fesseln“ als „erheblicher Sicherheitsverstoß“ markiert wurde.

Die Geschäftsbedingungen von Anthropic verbieten Kunden ausdrücklich den Zugriff auf Claude ohne Genehmigung, „um Konkurrenzprodukte oder -dienste zu entwickeln“ oder „um konkurrierende KI-Modelle zu trainieren“. Es ist erwähnenswert, dass Google ein Hauptinvestor von Anthropic ist. Dieser Hintergrund verstärkt die Bedenken hinsichtlich der Rechtmäßigkeit des Vorgehens von Google.

Ein Sprecher von Google DeepMind (zuständig für Gemini), McNamara, erklärte dazu, dass DeepMind tatsächlich „Modellausgaben vergleicht“, um diese zu bewerten, aber Gemini nicht mit dem Anthropic-Modell trainiert habe. „Natürlich vergleichen wir im Rahmen der Branchenpraxis in einigen Fällen Modellausgaben als Teil des Bewertungsprozesses“, sagte McNamara. „Jede Aussage, dass wir das Anthropic-Modell zum Trainieren von Gemini verwendet haben, ist jedoch ungenau.“

Obwohl Google die Verwendung von Claude zum Trainieren von Gemini bestreitet, bleibt die Aussage über den „Vergleich von Modellausgaben“ vage und kann die Bedenken nicht vollständig ausräumen. Dieser Vorfall lenkt erneut die Aufmerksamkeit auf die Datennutzung und die Einhaltung von Vorschriften bei der Entwicklung von KI-Modellen. In dem hart umkämpften KI-Bereich wird die Wahrung von fairem Wettbewerb und der Respekt vor geistigem Eigentum ein wichtiges Thema bleiben, das im Laufe der Entwicklung kontinuierlich beobachtet und diskutiert werden muss.