Die Wall Street Journal berichtete kürzlich, dass das KI-Unternehmen OpenAI ein Tool entwickelt hat, das ChatGPT-generierte Texte mit hoher Genauigkeit erkennen kann, es aber noch nicht offiziell veröffentlicht hat. OpenAI bestätigte dies und gab zu, an einer Text-Wasserzeichen-Technologie zu forschen, räumte aber auch ein, dass diese Technologie noch vor vielen Herausforderungen steht.

Berichten zufolge plant OpenAI, sich mit der Text-Wasserzeichen-Technologie auf die Erkennung von Texten aus ChatGPT zu konzentrieren, nicht auf Inhalte, die von Modellen anderer Unternehmen generiert wurden. Diese Technologie wird die Wortwahl von ChatGPT geringfügig verändern und ein unsichtbares „Wasserzeichen“ in den Text einfügen, das später mit einem speziellen Tool erkannt werden kann.

OpenAI, Künstliche Intelligenz, KI

OpenAI erklärte, dass Text-Wasserzeichen nur eine von mehreren Lösungen sind, die sie untersuchen. Weitere Optionen umfassen Klassifikatoren und Metadaten, um die Herkunft von Texten zu bestimmen. Obwohl die Text-Wasserzeichen-Technologie in einigen Fällen hervorragend funktioniert, lässt ihre Effektivität bei Manipulationen wie Übersetzung, Umschreibung oder Einfügen spezieller Zeichen nach. Darüber hinaus könnte die Technologie bestimmte Gruppen, wie z. B. Nicht-Muttersprachler, unverhältnismäßig stark beeinträchtigen.

Angesichts dieser komplexen Faktoren und der potenziellen Auswirkungen auf das gesamte Ökosystem erklärte OpenAI, dass es die Forschung an der Text-Rückverfolgbarkeit vorsichtig vorantreiben und die Entwicklung von Authentifizierungstools für audiovisuelle Inhalte priorisieren wird.

Diese Entscheidung hat in der Branche eine breite Diskussion über die Erkennung und Verwaltung von KI-generierten Inhalten ausgelöst. Mit der rasanten Entwicklung der KI-Technologie steht die Frage, wie man Innovationsschutz und Risikominimierung in Einklang bringen kann, im Mittelpunkt des Interesses.