Forschende der Columbia University haben acht führende KI-Suchmaschinen getestet. Das Ergebnis: In bis zu 60 Prozent der Fälle wurden Quellen nicht korrekt zitiert, halluziniert oder die Maschinen ignorierten Websiteblockaden.
Eine aktuelle Studie des Tow Center for Digital Journalism an der Columbia University zeigt, dass acht führende KI-Suchmaschinen Schwierigkeiten haben, Nachrichteninhalte korrekt zu zitieren, obwohl Lizenzvereinbarungen mit Verlagen bestehen. Insgesamt waren 60 Prozent der Antworten falsch. Perplexity schnitt mit 37 Prozent falscher Antworten am besten ab, während Grok 3 mit 94 Prozent Fehlerquote am schlechtesten abschnitt.
Bezahlmodelle sind nicht zuverlässiger als kostenlose Angebote
Überraschenderweise schnitten kostenpflichtige Premiummodelle wie Perplexity Pro oder Grok 3 nicht besser, sondern sogar schlechter ab als ihre kostenlosen Pendants. Mehrere Chatbots missachteten zudem die Einstellungen im Robots Exclusion Protocol, und oft leiteten sie Nutzer auf Syndikations-Plattformen wie Yahoo News weiter anstatt auf die Originalquelle.
Lizenzdeals bieten keine Garantie für korrekte Zitate
Einige Verlage wie Hearst oder die Texas Tribune haben Lizenzvereinbarungen mit KI-Firmen geschlossen, doch auch das führte nicht zu zuverlässigeren Zitaten. Die Ergebnisse zeigen, dass KI-Suchmaschinen noch einen langen Weg vor sich haben, um Nachrichteninhalte zuverlässig und transparent zu zitieren.
Laut Mark Howard, COO des Time Magazine, arbeiten die KI-Firmen zwar an Verbesserungen. Doch er betont auch: "Wenn jemand als Verbraucher im Moment glaubt, dass eines dieser kostenlosen Produkte zu 100 Prozent genau ist, dann ist das seine eigene Schuld."
Dieser Text wurde mit Microsoft CoPilot erstellt. Hier gehts zum Ursprungsartikel KI-Suchmaschinen scheitern bei der korrekten Quellenangabe von Nachrichteninhalten. Bild: erstellt von Midjourney
Kommentar schreiben