Der Milliardär und Eigentümer der Los Angeles Times, Patrick Soon-Shiong, hat kürzlich in einem Brief an die Leser bekannt gegeben, dass die Zeitung Künstliche Intelligenz (KI) einsetzen wird, um einigen Artikeln ein „Meinungs“-Label hinzuzufügen. Artikel, die eine „Meinung“ vertreten oder aus einer „persönlichen Perspektive“ geschrieben sind, werden mit diesem Label versehen. Zusätzlich wird die KI eine Reihe von „Einsichten“ generieren, die am Ende des Artikels in Stichpunkten zusammengefasst werden und verschiedene Perspektiven zu dem Thema enthalten.
Soon-Shiong erklärte in seinem Brief, dass das „Meinungs“-Label nicht nur auf Meinungsbeiträge beschränkt ist, sondern auch Kommentare, Kritiken und Rezensionen umfasst. Wenn ein Artikel eine bestimmte Position vertritt oder eine persönliche Perspektive einnimmt, kann er mit diesem Label versehen werden. Er ist der Ansicht, dass die Bereitstellung vielfältigerer Perspektiven den journalistischen Auftrag der Zeitung unterstützt und den Lesern hilft, die Herausforderungen des Landes besser zu verstehen.
Diese Änderung wurde jedoch von den Gewerkschaftsmitgliedern der Los Angeles Times nicht begrüßt. Der stellvertretende Gewerkschaftsvorsitzende Matt Hamilton erklärte, dass die Gewerkschaft zwar einige Maßnahmen unterstützt, die den Lesern helfen, zwischen Nachrichtenberichten und Meinungsbeiträgen zu unterscheiden, aber sie nicht glaube, dass KI-generierte Analysen ohne Überprüfung durch das Redaktionsteam das Vertrauen in die Medien stärken würden.
Kurz nach der Umsetzung der Änderung traten bereits einige bedenkliche Ergebnisse auf. The Guardian berichtete, dass die KI des Los Angeles Times bei einem Meinungsartikel über die Gefahren des unkontrollierten Einsatzes von KI in historischen Dokumentationen behauptete, der Artikel sei „überwiegend links ausgerichtet“ und implizierte, dass „KI die historische Erzählung demokratisieren würde“. Bei einem weiteren Artikel über die Wahl von Ku-Klux-Klan-Mitgliedern in den Stadtrat kalifornischer Städte in den 1920er Jahren behauptete die KI in einer generierten Einsicht, dass lokale historische Aufzeichnungen den Ku-Klux-Klan manchmal als „Produkt der ‚weiß-protestantischen Kultur‘ als Reaktion auf gesellschaftliche Veränderungen“ und nicht als eindeutig von Hass getriebene Bewegung darstellten, wodurch die ideologische Bedrohung heruntergespielt wurde. Obwohl diese Aussage bis zu einem gewissen Grad zutrifft, wirkt ihre Präsentation ungeschickt und steht im Widerspruch zum Thema des Artikels.
Im Idealfall sollte der Einsatz von KI-Tools mit einer gewissen redaktionellen Aufsicht erfolgen, um Probleme wie die der Los Angeles Times zu vermeiden. Fehlende Aufsicht kann zu verschiedenen Fehlern führen, wie z. B. die fehlerhafte Empfehlung von Sehenswürdigkeiten durch den KI-Nachrichtenaggregator von MSN oder die fehlerhafte Interpretation von BBC-Überschriften durch Apples neueste Benachrichtigungszusammenfassung.
Obwohl andere Medienunternehmen KI auch im Nachrichtenbetrieb einsetzen, wird sie in der Regel nicht zur Generierung von redaktionellen Bewertungen verwendet. Mehrere Medienunternehmen wie Bloomberg, USA Today, The Wall Street Journal, The New York Times und The Washington Post setzen die Technologie auf unterschiedliche Weise ein.
Wichtigste Punkte:
🌐 Die Los Angeles Times führt KI ein, um Artikeln „Meinungs“-Labels hinzuzufügen und KI-Analysen zu generieren.
📰 Gewerkschaftsmitglieder äußern Bedenken hinsichtlich der KI-generierten Analysen und befürchten, dass fehlende redaktionelle Überprüfung das Vertrauen in die Medien beeinträchtigen könnte.
🔍 KI-Analysen weisen bereits Probleme auf, wobei einige Meinungen im Widerspruch zum Thema des Artikels stehen und öffentliche Aufmerksamkeit erregen.