Aktuelle Berichte enthüllen, dass das viel beachtete und gut finanzierte KI-Suchwerkzeug Perplexity, minderwertige und sogar fehlerhafte, KI-generierte Müllinformationen aus unzuverlässigen Blogs und LinkedIn-Posts verwendet.
GPTZero, ein Startup, das sich auf die Erkennung von KI-generierten Inhalten spezialisiert hat, hat kürzlich eine eingehende Untersuchung von Perplexity durchgeführt. Der CEO des Unternehmens, Edward Tian, wies in einem Blogbeitrag Anfang dieses Monats darauf hin, dass er eine „zunehmende Anzahl von KI-generierten Quellen“ bemerkte, auf die Perplexity verlinkt.
Anschließend untersuchte er die KI-Wiederverwendung dieser Informationen durch Perplexity und stellte fest, dass Perplexity in einigen Fällen sogar veraltete und falsche Informationen aus diesen KI-generierten Quellen extrahierte. Mit anderen Worten: Es handelt sich um einen KI-getriebenen Desinformationskreislauf, in dem KI-Fehler und -Fiktionen in die KI-generierten Antworten von Perplexity einfließen.
Beispielsweise lieferte Perplexity auf die Frage „Kulturfeste in Kyoto, Japan“ eine scheinbar kohärente Liste von kulturellen Sehenswürdigkeiten der japanischen Stadt. Es verwies jedoch nur auf eine Quelle: einen obskuren Blogbeitrag, der im November 2023 auf LinkedIn veröffentlicht wurde und höchstwahrscheinlich selbst KI-generiert ist. Dies steht im krassen Gegensatz zu Perplexitys Behauptung, „Nachrichtenagenturen, wissenschaftliche Arbeiten und etablierte Blogs“ zu verwenden.
Für ein bereits angeschlagenes Startup, das behauptet, die Art und Weise, wie man Informationen findet, zu „revolutionieren“, indem es „präzises Wissen“ durch „aktuelle Informationen aus zuverlässigen Quellen“ liefert, ist dies ein schlechtes Image.
Wichtigste Punkte:
🚩 Perplexity verwendet nachweislich fehlerhafte, KI-generierte Müllinformationen aus fragwürdigen Blogs und LinkedIn-Artikeln.
🚩 GPTZero stellte fest, dass Perplexity zunehmend auf KI-generierte Quellen verlinkt und diese Quellen manchmal veraltete und falsche Informationen enthalten.
🚩 Perplexity behauptet, seine Antworten basieren ausschließlich auf „zuverlässigen Quellen“, aber es ist entscheidend, ob sein KI-Algorithmus tatsächlich gute Informationen aus guten Quellen extrahieren kann.