Veröffentlicht am
Einem neuen Bericht zufolge ist russische Propaganda in jeder fünften Chatbot-Antwort mit künstlicher Intelligenz (KI) über die Ukraine präsent.
Der britische Thinktank Institute of Strategic Dialogue (ISD) stellte ChatGPT von OpenAI, Gemini von Google, Grok von xAI und V3.2 von Deepseek über 300 Fragen in fünf Sprachen zum Krieg in der Ukraine, entweder mit voreingenommener, unvoreingenommener oder böswilliger Sprache.
Russische Quellen tauchten häufiger in voreingenommenen und böswilligen Fragen auf, etwa indem sie die Chatbots nach Quellen über ukrainische Flüchtlinge fragten, die „Terroranschläge planten“ oder „Männer gewaltsam von der Straße schnappten, um sie zum Militär einzuziehen“.
Die Forscher sagten, ihre Ergebnisse bestätigen, dass KI-Systeme einen „Bestätigungsbias“ verwenden, bei dem sie die vom Benutzer verwendete Sprache nachahmen, um zu informieren, wie er seine Antworten formuliert und welche Quellen er verwendet.
Dies sei am deutlichsten bei ChatGPT zu erkennen, so der Bericht, der dreimal mehr russische Quellen für voreingenommene oder böswillige Aufforderungen lieferte als bei den neutralen Fragen zum Krieg. Die Untersuchung ergab, dass Grok selbst bei neutralen Fragen die meisten russischen Quellen lieferte.
Wie haben sich die einzelnen Plattformen geschlagen?
In zwei Anfragen an Deepseek stellte der Chatbot vier Links zu von Russland unterstützten Quellen bereit, was laut Forschern die höchste Anzahl an gleichzeitig geteilten Links darstellte.
In den Antworten wurde die Online-Nachrichtenseite VT Foreign Policy zitiert, die dem Bericht zufolge Inhalte von russischen Propagandagruppen wie Storm-1516 oder der Foundation to Battle Injustice oder den russischen Mediengruppen Sputnik und Russia Today verbreitet.
Grok zitierte am häufigsten Journalisten von Russia Today direkt, indem er als Quellen auf Beiträge verwies, die sie auf der Social-Media-Plattform
Grok „äußert auch Bedenken hinsichtlich der Fähigkeit von Chatbots, Inhalte aus sanktionierten staatlichen Medien zu erkennen und einzuschränken, die von Dritten wie Influencern weiterveröffentlicht wurden“, heißt es in dem Bericht.
Gemini weigerte sich, auf einige Fragen zu antworten, die als böswillig formuliert waren, und teilte den Forschern stattdessen mit, dass es nicht in der Lage sei, „bei Themen zu helfen, die möglicherweise unangemessen oder unsicher sind“.
Das ISD stellt fest, dass Gemini der einzige Chatbot ist, der „die mit voreingenommenen und böswilligen Aufforderungen verbundenen Risiken“ zum Krieg in der Ukraine erkennen kann, in anderen Antworten jedoch nicht auf die Quellen verlinkt hat, die er zur Beantwortung der Frage des Benutzers verwendet hat.
Russische Quellen stecken wahrscheinlicher in „Datenlücken“
Bei Fragen zu den militärischen Rekrutierungsbemühungen der Ukraine tauchten russische staatliche Quellen am häufigsten auf: 40 Prozent der Antworten von Grok und über 28 Prozent der Antworten von ChatGPT zitierten mindestens eine Quelle.
Sowohl ChatGPT als auch Grok gaben in 28,5 Prozent ihrer Antworten auch Kreml-Quellen an. Im Gegensatz dazu führten Fragen zu Kriegsverbrechen und ukrainischen Flüchtlingen bei allen vier Chatbots zu den geringsten von Russland unterstützten Quellen.
Die Forscher gehen davon aus, dass die Chatbots häufiger auf russische Quellen zurückgreifen, wenn ein Thema als „Datenlücke“ gilt, ein Suchbegriff, der nicht viele qualitativ hochwertige Ergebnisse liefert.
Die amerikanische Non-Profit-Denkfabrik Data and Society berichtete, dass es zu Datenlücken kommt schwer zu erkennen weil sie oft mit obskuren Suchanfragen oder in Eilmeldungssituationen auftauchen, bei denen es einige Zeit dauert, bis die Ergebnisse mit glaubwürdigem Journalismus gefüllt sind.


