Hitachi hat kürzlich eine bemerkenswerte Technologie entwickelt, die in der Lage ist, zu erkennen, ob ein Text von einem generativen KI-System verfasst wurde.
Diese Technologie ist nicht einfach: Sie basiert auf der Analyse der Wortverwendungsmuster in einem Text. Der Grund für die Entwicklung dieser Technologie liegt in ihrem zukünftigen Nutzen: Sie kann nicht nur die Verbreitung falscher Informationen durch generative KI verhindern, sondern auch Unternehmen und Behörden dabei unterstützen, Urheberrechtsverletzungen bei der Erstellung wichtiger Dokumente zu vermeiden.
Die EU, die USA und Japan befassen sich intensiv mit generativer KI und arbeiten an der Verbesserung der Rechtsvorschriften und an laufenden Diskussionen. Sie sind der Meinung, dass Unternehmen, die große Sprachmodelle (LLMs) entwickeln, angeben sollten, ob Videos, Bilder und Texte von einer generativen KI stammen.
Hitachis neu entwickelte Technologie wird in die auf LLMs basierenden Textgenerierungstechnologien von KI-Entwicklungsunternehmen integriert. Sie basiert auf einer Regel, die selbst bei vielen Synonymen die Verwendung bestimmter Wörter vorschreibt. Eine häufige Verwendung solcher Wörter in einem Text deutet auf eine KI-Erstellung hin. Hitachi hat angeblich auch Technologien entwickelt, die mehrere Wortwahlregeln kombinieren, wodurch die Genauigkeit der Erkennung deutlich verbessert wird.
Ein Problem bei generativer KI ist die Erzeugung faktisch unrichtiger Inhalte, sogenannte „Halluzinationen“. Die Möglichkeit, KI-generierte Texte zu erkennen, kann jedoch das Risiko der Verbreitung falscher Informationen verringern!
Wichtigste Punkte:
- 😃 Hitachi entwickelt eine Technologie zur Erkennung von KI-generierten Texten.
- 😜 Die Technologie basiert auf der Analyse von Wortverwendungsmustern und hilft, die Verbreitung falscher Informationen und Risiken zu vermeiden.
- 😎 Angesichts generativer KI verbessern viele Länder die Rechtsvorschriften und fordern die Angabe der Quelle. Hitachis neue Technologie erhöht die Genauigkeit der Erkennung.