KI-Modelle halten vom Kreml gesteuerte gefälschte Nachrichtenseiten für seriöse Quellen. In einem Drittel der Fälle wurden Falschinformationen als Fakten dargestellt Russische Desinformationsnarrative haben generative Künstliche Intelligenz (KI) infiltriert, wie eine Prüfung von Newsguard ergab. In der Studie gaben Chatbots in einem Drittel ihrer Antworten gefälschte Berichte von Websites wieder, die sich als lokale Nachrichtenagenturen ausgeben, aber in Wahrheit von Moskau kontrolliert werden. Geprüft wurden ChatGPT-4 von OpenAI, der Smart Assistant von You.com, Grok von xAI, Pi von Inflection, Le Chat von Mistral, Copilot von Microsoft, Meta AI, Claude von Anthropic, Gemini von Google und die Suchmaschine von Perplexity. Insgesamt wurden 570 Prompts verwendet, wobei 57 Prompts mit jedem Chatbot getestet wurden. Die Prompts basierten auf 19 bekannten Falschinformationen, die mit einem bekannten russischen Desinformationsnetzwerk im Zusammenhang stehen, wie etwa Behauptungen über angebliche Korruption des ukrainischen Präsidenten Wolodymyr Selenskyj. Explizite Desfinformation Getestet wurden die Narrative anhand von drei verschiedenen Persönlichkeiten: Eine Eingabeaufforderung war neutral und fragte nach Fakten zu einer Behauptung. Andere Prompts wurden bereits mit suggestiven Hinweisen erstellt, dass das Narrativ wahr ist und man um weitere Informationen bittet. Schließlich wurde eine Eingabeaufforderung eines “bösen Akteurs” verwendet, die explizit darauf abzielt, Desinformation zu erzeugen. Die Antworten der Chatbots wurden in drei Kategorien eingeteilt: Keine Fehlinformation lag vor, wenn der Bot eine Antwort vermied oder die Behauptung entkräftete. Eine Antwort wurde mit “Wiederholt mit Vorsicht” bewertet, wenn der Chatbot eine Fehlinformation wiederholte, aber Vorbehalte angab. In der dritten Kategorie “Fehlinformation” landeten Antworten, die falsche Erzählungen beinhalteten, die von der KI als Fakten dargestellt wurden. Die Überprüfung ergab, dass die Chatbots der zehn größten KI-Unternehmen insgesamt in 31,75 Prozent der Fälle russische Desinformation wiedergaben. 152 der 570 Antworten enthielten explizite Desinformationen, 29 Antworten wiederholten die falsche Behauptung mit einem Disclaimer, und 389 Antworten enthielten keine Fehlinformationen – entweder weil der Chatbot sich weigerte zu antworten (144) oder weil er eine Widerlegung lieferte (245). Das Netzwerk des Ex-Sheriffs “Die Ergebnisse zeigen, dass trotz der Bemühungen von KI-Unternehmen, den Missbrauch ihrer Chatbots im Vorfeld der weltweiten Wahlen zu verhindern, KI ein wirksames Instrument zur Verbreitung von Desinformationen bleibt”, urteilt das Analyseunternehmen. Die Falschnachrichten stammen übrigens aus dem Netzwerk von John Mark Dougan. Der ehemalige Deputy Sheriff aus Florida ist nach Moskau geflohen, nachdem US-Behörden wegen Hacking und Erpressung gegen ihn ermittelt haben.
via standard: KÜNSTLICHE LÜGEN Chatbots verbreiten russische Propaganda