Die Meldung klingt dramatisch: Die Ukraine baut eine „dreckige Bombe“ und will damit radioaktive Waffen gegen Russland im Krieg einsetzen. Der Westen provoziere damit eine nukleare Katastrophe. Derartigen Meldungen begegnet man auf sozialen Medien in den letzten Wochen immer wieder. Es handelt sich dabei um gezielte Desinformation, die Manipulation und Propaganda fördert und bestimmte Weltbilder festigt. Doch was ist daran gefährlich und was hat das mit TikTok zu tun?
Themen Desinformation / TikTok / Algorithmus
An TikTok führt für die „Gen Z“ kaum etwas vorbei. So wird die Plattform mittlerweile nicht nur zur Unterhaltung, sondern auch als Informationsquelle und Suchmaschine genutzt. Problematisch dabei ist nicht nur, dass knapp 20% der angezeigten Suchergebnisse Fehlinformationen anzeigen. Das Prinzip Desinformation funktioniert auf der Plattform besonders gut und wird von antidemokratischen Akteur*innen bewusst genutzt. Doch woran liegt das?
Das Erfolgsrezept Algorithmus
TikTok ist im Wettbewerb der sozialen Plattformen in den letzten Jahren besonders erfolgreich: durch die intuitive Benutzeroberfläche und der Logik des Algorithmus. Nutzer*innen sollen möglichst lange auf der Plattform bleiben, durch unzählige Videos scrollen und/ oder mit eigenen Videos hohe Klickzahlen generieren.
Die Art des Contents spielt eine entscheidende Rolle im Sehverhalten der Nutzer*innen. Erfolgreich im Wettbewerb der Interaktionslogik ist nicht die schlichte und nüchterne Information, sondern tendenziell provokanter und skandalöser Content.
Die Interaktion (Engagement) von Nutzer*innen steigt bei provokanteren Content. Quelle: techcrunch.com
Hierbei spielen Emotionen eine wesentliche Rolle. Schafft es das Video gewisse Emotionen hervorzurufen, interagieren Menschen deutlich häufiger. Es ist also zweitrangig, ob ein Content gut oder schlecht dargestellt oder gar wahr ist. Entscheidend ist die Reaktion der Nutzer*innen, welche höhere Klickzahlen und ein längeres Verbleiben garantieren. Das Erfolgsrezepts TikToks: der Algorithmus.
Durch die Nutzung der App lernt der Algorithmus schnell, welche Themen bei der*m Nutzer*in Interesse erzeugen und zeigt den entsprechenden Content vermehrt an. Die Logik des Algorithmus unterscheidet dabei nicht zwischen Katzen oder Kriegen oder gar moralischen Aspekten. Der Fokus liegt auf der Aufmerksamkeit und Interaktion mit den angezeigten Videos. So bekommen Nutzer*innen relativ schnell den Content angezeigt, der perfekt zum eigenen vermeintlichen Interesse passt. Die Gefahr, in ein sogenanntes „Rabbit Hole“ (dt. „Kaninchenloch“) zu kommen, also nur noch Content aus gewissen Themenbereichen angezeigt zu bekommen, ist dabei extrem hoch. Begünstigt wird dadurch die Möglichkeit einer Radikalisierung durch Desinformationen.
Außerdem ist das Kurzvideoformat als visuelles Medium besonders wirkungsvoll im Vergleich zum reinen Textformat. Insbesondere um Emotionen auszulösen und folglich Interaktion hervorzubringen. Gleichzeitig ist es technisch schwieriger eine Fehlinformation in visuellen Medien zu entlarven als in reiner Textform.
Desinformation auf TikTok
Wir haben also kurze prägnante Videos, die genau dann von der Plattform gepusht werden, wenn die Leute damit interagieren – in Form von Kommentaren, Likes, und Teilen. Das sind ideale Bedingungen für antidemokratische Akteur*innen und den gezielten Einsatz von Desinformationen, die vor allem auf drei Emotionen setzen: Wut, Angst und Empörung.
Das Beispiel des Angriffskriegs Russlands gegen die Ukraine verdeutlicht die Problematik von Desinformationen. Eindrücke von tödlichen Raketen, Kriegsgefangenen und die Erfahrungen und Folgen für die Zivilbevölkerung werden tausendfach tagtäglich über die Plattform geteilt und erfahren teils hohe Reichweiten. Wie schnell man in einen Tunnel von Kriegscontent geraten kann und wie viel gezielte falsche Informationen dabei im Umlauf sind, zeigt eine Recherche des Formats VOLLBILD des SWR. Der Selbstversuch des Rechercheteams, auf TikTok nur mit militärischen Videos zu interagieren, brachte nach knapp einer Stunde einen ausschließlichen Kriegscontent hervor. Eine Einordnung von Gewalt- und Propagandainhalten geschieht dabei oftmals nicht.
Ein vermeintlicher Livestream zu Beginn des Ukrainekrieges. Desinformation zeigt sich oft erst bei genauerer Betrachtung.
Hier: das Video ist nicht live (Datumstempel) und wurde aus einem Nachrichtenbericht zweckentfremdet.
Die Konsequenzen von Desinformation sind folgenschwer. Die Konstruktion einer Wirklichkeit durch falsche Informationen bedingt nicht nur eine fortwährende Radikalisierung auf sozialen Plattformen. Die Folge sind oftmals Hass und Gewalt, die sich gezielt und direkt gegen Menschen wendet. So spielte beispielsweise Desinformation auf sozialen Plattformen eine wesentliche Rolle im Genozid an der Minderheit der Rohingya in Myanmar. Die Diktatur nutzte Facebook zur Verbreitung eines Narratives der Rohingya als Bedrohung und zur Etablierung eines gemeinsamen Feindbildes. Die Folge war ein extremer Anstieg an Hassrede, Falschinformationen, der Aufruf zu Gewalt und letztendlich die physische Verfolgung der Minderheit.
Desinformation funktioniert also gut, weil sie die Emotionen der Nutzer*innen anspricht, durch die höhere Interaktionstendenz von der Plattform und dem Algorithmus gepusht wird. Damit bietet sie antidemokratischen Akteur*innen die perfekte Möglichkeit zur strategischen Verbreitung der eigenen Ideologie und Radikalisierung von Meinungen und Menschen.
Problematisch ist nicht nur, dass TikTok und andere Plattformen langsam oder kaum auf die Inhalte reagieren. Entsprechende Accounts werden kaum gesperrt oder die Akteur*innen eröffnen neue alternative Accounts. Auch das Mittel der geprüften Information ist bedingt wirkungsvoll. Fakten ändern oftmals nicht eine bestehende Meinung, sondern werden auf Grundlage der emotionalen Befangenheit geändert. Gerade radikalisierte Menschen erreicht man damit nur noch selten. In solchen Fällen sollte man an der individuellen Beziehungsebene anknüpfen und dem Menschen mit Respekt und auf Augenhöhe begegnen und evtl. Beratungsangebote von Fachstellen einholen.
Was kann man tun?
Trotzdem sind Faktenchecks ein wichtiges Mittel im Kampf gegen Desinformation auf sozialen Plattformen. Es gibt verschiedene Möglichkeiten, ein Video und Informationen auf ihre Echtheit zu prüfen.
Was kann ich tun?
Sei dir darüber bewusst, dass Desinformation überall lauern kann
Welche Behauptung wird in dem Video aufgestellt?
Wodurch werden sie belegt?
Gibt es Quellen?
Von wem bzw. woher kommt das Video?
Ist der Klarname des Accounts bekannt?
Lassen sich auffällige Hashtags beobachten?
Außerdem gibt es einige Webseiten die euch bei der Echtheitsprüfung helfen: CORRECTIV, die DPA und der ARD Faktenfinder überprüfen für euch den Wahrheitsgehalt von Inhalten. Und auch auf TikTok engagieren sich Accounts wie der Volksverpetzer, Maxi Pichlmeier, Mimikama und viele weitere Nutzer*innen gegen Desinformation und für eine demokratische Zivilgesellschaft.
Wie könnt ihr euch gegenüber radikalisierten Menschen verhalten? Das Projekt „Zivile Helden“ hat für euch sechs Tipps für richtiges Verhalten bei Radikalisierung zusammengestellt. Außerdem helfen die Anlaufstellen EXIT und ufuq bei Fällen von Radikalisierung und bieten individuelle Beratung.
Aktuelles aus dem Projekt Visualising Democracy
Kampagne "FactsOverFakes"
Vom 28.11. - 16.12 läuft auf TikTok unsere Kampagne #FactsOverFakes. Ziel ist es, über Desinformationen auf sozialen Plattformen zu informieren und gezielt dagegen vorzugehen. Schaut gerne auf dem Account der Amadeu Antonio Stiftung oder unter dem Hashtag #FactsOverFakes vorbei und verfolgt unsere Arbeit oder macht selbst ein Video gegen Desinformation.
So viel erstmal von uns! Wir freuen uns über jegliche Rückmeldungen, Fragen oder ein paar nette Worte – schreibt uns einfach, falls ihr was loswerden wollt: