Nach dem Anschlag auf ein Konzert in Moskau mit vielen Toten bemühen sich in Europa gerade viele russische Kanäle darum, die Ukraine mit dem Terrorakt in Verbindung zu verbringen - obwohl sich der Islamische Staat zu der Tat bekannt hat.
Julia Smirnova, die am Institute for Strategic Dialogue zu russischer Desinformation und Propaganda forscht, wundert das nicht: "Es gibt auf Deutsch und in anderen europäischen Sprachen Accounts auf X mit einer ziemlich großen Reichweite, die konsequent Kreml-freundliche Versionen von Ereignissen verbreiten - seien es Kriegsereignisse in der Ukraine, oder sei es der Anschlag in Moskau." Bots spielen bei dieser Verbreitung offensichtlich eine Rolle.
Was sind "Bots"?
Damit sind im Zusammenhang mit sozialen Medien Computerprogramme gemeint, die zum großen Teil automatisiert Kommentare und Antworten veröffentlichen. Sie können zum Beispiel darauf programmiert sein, bestimmte Stichworte auf Plattformen wie X oder Facebook zu finden und unter dem jeweiligen Beitrag Werbung oder andere Inhalte zu posten.
Wie kann man Bots erkennen, und wie hoch ist ihr Anteil im Netz?
"Das ist schwierig zu sagen, weil einerseits die meisten digitalen Plattformen für die Forschung nicht zugänglich sind, und andererseits Bots nicht einfach technisch zu identifizieren sind. Die Tools, die häufig eingesetzt werden, um beispielsweise Bots auf Twitter/X zu identifizieren, sind notorisch unzuverlässig", sagt Medienwissenschaftler Christian Hoffmann von der Universität Leipzig.
Ihre Relevanz hält Hoffmann aber eher für gering. Nehme man die (teil-)automatisierten Accounts von Medien aus, "sprechen wir von einem kleinen oder sehr kleinen Anteil", so Hoffmann. Das liege auch daran, dass Bots häufig uninteressant sind und Spam verbreiten. Wenige Menschen folgten ihnen daher: "Manchmal folgen sich Bots gegenseitig und erwecken dann in Bot-Netzwerken den Eindruck großer Reichweite, dabei sehen nur ganz wenige Menschen die so verbreiteten Inhalte."
Bots zu erkennen, werde für User durch immer überzeugendere KI-generierte Beiträge aber "zunehmend schwierig", sagt Nadine Eikenbusch von der Landesanstalt für Medien NRW. Sie empfiehlt, Quellen und die Intention von Inhalten zu überprüfen: Wer hat es veröffentlicht, was soll das Video auslösen? Eine starke Emotionalisierung wäre etwa ein Indiz, doch mal genauer hinzuschauen.
Wer steckt hinter den Bots?
Hoffmann verweist darauf, dass jeder Bots eingesetzt werden kann und dies oft auch gar nicht problematisch sei: "Es gibt Bots, die regelmäßig die Uhrzeit, das Wetter oder Witze posten. Das würde kaum jemand problematisieren." Problematisiert würden in der Regel Bots, die durch ausländische Mächte genutzt werden, wie beispielsweise Russland oder China, um Desinformation beziehungsweise Fake News zu verbreiten.
Das Einsatzgebiet für Bots sei sehr "umfassend", so Eikenbusch: "Es gibt sehr viele unterschiedliche Intentionen - etwa wirtschaftliche oder politische Interessen für den Einsatz von Bots."
Wie groß ist die Bedrohung durch über Bots gesteuerte Desinformationskampagnen?
Hoffmann schätzt diese Gefahr als "sehr klein" ein. "Desinformation ist vor allem dann relevant, wenn sie durch Massenmedien versehentlich aufgegriffen und verbreitet wird. Insbesondere, wenn viele Medien darauf hereinfallen und den falschen Inhalt häufig wiederholen", so Hoffmann.
Doch selbst dann sei die Wirkung von Desinformation beschränkt, weil die meisten Menschen Medieninhalten mit einer gewissen Skepsis begegneten und in ihrem politischen Weltbild nicht einfach zu bewegen seien: "Solange Journalismus gut funktioniert und Journalisten nicht auf Desinformation hereinfallen, ist die Wahrnehmung von Desinformation in der Regel auf diejenigen beschränkt, die sie sehen wollen, weil diese Inhalte ohnehin ihrem Weltbild entsprechen."
Klar ist laut Eikenbusch allerdings, dass die Aktivität von Bots rund um politische Ereignisse zunehme. Zu den Auswirkungen gebe es noch keine gesicherten Erkenntnisse, doch das Ziel von Desinformation sei "Menschen zu verunsichern und zu manipulieren": "Man will das Verhalten der Menschen und ihre Entscheidungen direkt beeinflussen."
Was kann man gegen Bots tun?
Hoffmann zufolge lassen sich Bots in der Regel leicht erkennen, da sie schlicht nicht wie Menschen agieren: "Es gelingt Bots nur sehr, sehr selten, eine relevante Position in den Kommunikationsnetzwerken der menschlichen Nutzer von Social Media zu erlangen." Der Medienexperte hält nichts davon, "unnötig Angst für der Wirkmacht von Bots im Netz zu erzeugen". Studien würden zeigen, dass Social-Media-Nutzer inzwischen anderen Social-Media-Nutzern fälschlich vorwerfen, ein Bot zu sein, wenn sie inhaltlich nicht miteinander übereinstimmen: "Hier kippt die Angst vor Bots beinahe schon ins Absurde."
Gleichwohl sei Medienerziehung immer sinnvoll, was auch Eikenbusch betont: "Wir bilden an weiterführenden Schulen Medienscouts aus und gehen damit diese Jahr auch in die Grundschule." Man müsse "ein gesundes Misstrauen" früh trainieren, wenn man online unterwegs ist. Es stimme eben nicht alles, was im Internet steht.