Newsletter 2024
Im Browser öffnen

Ist das noch Jugendsprache oder schon Algospeak?

“Talahon”, “nahtziehs”, “unalive”, “N00ds”, “le$bian”, “brainrot” – Auf TikTok hat sich schon seit längerem eine eigene Sprache etabliert. Was auf den ersten Blick wie eine kreative Auslebung von Sprache und jugendlicher Distinktion aussieht, hat in vielen Fällen noch eine ganz andere Funktion: Inhalte, die gegen die Community Guidelines verstoßen oder Begriffe, die als jugendgefährdend eingeschätzt werden von der technischen Moderation, dem Algorithmus, unbemerkt zu kommunizieren.

Die vermutete Drosselung der Reichweite (Shadowban) oder Löschung von Inhalten soll so umgangen werden. Algospeak kann mitunter auch dazu dienen, Hass und Hetze zu verbreiten – wenn sie z. B. von rechtsextremen User*innen als Umwegkommunikation genutzt wird, um menschenverachtende Inhalte zu verschlüsseln.


Themen 
 TikTok / Pädagogik / Hate Speech


Was ist Algospeak?

Algospeak bezeichnet Codes, Chiffren, Euphemismen/Dogwhistles oder sprachliche Umschreibungen, die benutzt werden, um an der technischen Plattform-Moderation möglichst unbemerkt vorbeizukommunizieren. Das kann z.B. durch Umschreibungen, veränderte/falsche Schreibweisen, Ersatz einzelner Buchstaben durch Ziffern und Symbole oder Emojis erfolgen. Der Kreativität sind hier keine Grenzen gesetzt. Manche dieser Begriffe und Zeichen werden von Jugendlichen mittlerweile auch über die Plattformen hinaus verwendet.


Aber warum das Ganze? Auf TikTok werden Inhalte über die algorithmisch gesteuerte „For You“-Seite verbreitet, was dazu führt, dass Creator*innen ihre Beiträge gezielt so gestalten, dass diese durch den Algorithmus auf möglichst viele Zuschauer*innen treffen. Die Plattformen veröffentlichen hierzu keine genaueren Informationen. Der Grund hierfür ist, dass ein transparenter Einblick mehr missbräuchlich vercodierte Inhalte zur Folge hat, da man den Verbreitenden dabei hilft, ihre Inhalte so zu verfassen, dass der Algorithmus und gegebenenfalls auch die Guidelines nicht greifen können. Hier besteht ein Spannungsfeld zwischen Transparenz und Sicherheit.


Ziel von Algospeak ist also – in den wohl meisten Fällen - die Vermeidung von antizipierten Einschränkungen der Inhalte durch die Plattform-Moderation. Sicherlich gibt es auch viele junge Leute, die sich Trends oder Hashtags, die Algospeak enthalten, aus Spaß und Zugehörigkeitsgefühlen aneignen – in diesem Fall funktionieren die Codes dann auch als Insider, Bekenntnis oder um zu signalisieren das man mit der Plattform und Lingo einer Blase vertraut ist.


Ein Video, das sich kritisch mit rechtsextremen Narrativen auseinandersetzt, kann durch die Algorithmen auch an Nutzer*innen ausgespielt werden, die zuvor an rechtsextremen Inhalten Interesse gezeigt haben, da bei der Ausspielung nicht zwangsläufig nach inhaltlicher Positionierung differenziert wird. Dies stellt die digitale Präventionsarbeit zusätzlich vor neue Herausforderungen.


Die Vermutung liegt nahe, dass der Algorithmus von TikTok auf Wörter anspringt, die häufig im Zusammenhang mit Hate Speech und Desinformation auftauchen. Hier wird deutlich, dass es neben der technischen auch weiterhin eine menschliche Moderation geben muss, die auf der Plattform sicherstellt, dass der demokratische Diskurs nicht zu stark verengt wird. 



Umwegkommunikation als antidemokratische Strategie

Antidemokratische Akteur*innen verwenden soziale Medien, um neue Anhänger zu gewinnen, sich zu vernetzen und ihre Ideologien zu verbreiten. Dabei setzen sie auch auf indirekte Kommunikationsmethoden, um ihre antidemokratischen Botschaften zu vermitteln. Obwohl die Moderation der Plattform gegen missbräuchliches Verhalten und Diskriminierung vorgeht, versuchen antidemokratische Nutzer*innen mit kreativen Mitteln unter dem Radar zu bleiben und trotzdem eine möglichst große Reichweite zu erzielen.

 

Algospeak kann hier auch als Umwegskommunikation verstanden werden. Der Begriff “Umwegkommunikation” wurde von der Antisemitismusforschung geprägt. Dabei haben Akteur*innen das Ziel, die Grenzen des Sagbaren zu verschieben und Hassrede zu normalisieren.

 

Dogwhistles, rechtsextreme Emojis und Algospeak zeigen, wie gut sich auch rechtsextreme Nutzer*innen die Plattformlogik für ihre Agenda zu eigen machen. Neben den klassischen und offensichtlicheren Codes, wie zwei Blitz-Emojis für SS oder einer der Emoji-Kombination einer Israel- oder Pride-Fahne mit dem sich übergebenden Emoji, tauchen auch immer wieder neue und weniger offensichtliche Codes auf - z. B. das Wort “Ninja” oder alternativ das Ninja-Emoji, welches von rassistischen Nutzer*innen für das N-Wort verwendet wird. Auch wenn das Emoji mit dem blonden Mann, der den Arm zum Gruß hochhält, gepostet wird, ist Vorsicht geboten. Denn der steht in Neonazi-Kontexten für den Hitlergruß.


Antisemitische Emoji-Codes auf TikTok (Quelle: Screenshot TikTok)

Gefilterte Kommentare des AAS TikTok Accounts (Quelle: Screenshot TikTok)

Hier erfahrt ihr, was es mit Schaf-Emojis auf sich hat (Quelle: Screenshot TikTok)

Hier werden antisemitische Codes dechiffriert (Quelle: Screenshot TikTok)

Die Verfolgung und Einschränkung von hasserfüllten Inhalten durch die Plattform ist nach wie vor löchrig. Gerade bei Emojis, die zunächst einmal Kommunikation unterstützen sollen, ist ein konsequenter Umgang schwierig. Mittlerweile werden zwar doppelte Blitz-Emojis (Anlehnung an Schutzstaffel aus dem NS) gesperrt, doch mit zwei Aufwärtstrend-Emojis wurde bereits das nächste Emoji von rechtsextremen Akteur*innen angeeignet.


Ein weiterer besorgniserregender Trend sorgte jüngst für Aufruhr: Videos, in denen Ansprachen von Adolf Hitler mithilfe von KI ins Englische übersetzt und von einer Computer-generierten Stimme vorgetragen werden. Der KI-generierte Hitler-Klon erhielt Millionen Aufrufe. Dabei wird Hitler mit Euphemismen wie “Der große Maler” bezeichnet, um die Plattform-Moderation zu umgehen.

Debatte “Talahon”

Wie fügt sich der Begriff “Talahon” in diese Debatte ein? Coole Eigenbezeichnung oder rassistische Beleidigung? Die Debatte um den Begriff zeigt, wie um Sprache und politische Deutungsmacht gerungen wird.


Videos, in denen sich junge Männer mit Kampfbewegungen und provokanten – teils gewaltverherrlichenden – Aussagen hypermaskulin inszenieren, haben den Trend entfacht. Zurück geht dies auf ein Lied des Rappers Hassan. "Talahon" leitet sich vom arabischen Ausdruck "Ta'al La'hon" ab, was so viel bedeutet wie "Komm her!". Doch schnell geht es nicht mehr nur um Jugendliche, die sich mit Sonnenbrille, Markenbaseballkappe und Bauchtasche inszenieren.


Ursprünglich als Selbstbezeichnung genutzt, hat sich der Begriff in kürzester Zeit zu einer rassistischen Fremdzuschreibung entwickelt. FPÖ und AfD-Politiker*innen haben nicht lange gezögert, den TikTok Trendbegriff für ihre rassistische Agenda zu nutzen. Neben Werbung auf Twitter für Sticker mit dem Slogan “Talahon-freie Zone” werden zunehmend auch ernsthafte Forderungen nach der Abschiebung der sogenannten “Talahons” laut. Schnell wird deutlich, dass sie den Begriff nicht für eine jugendliche Subkultur, sondern für allgemein arabisch gelesene Männer verwenden und damit bewusst rassistische Stereotype verbreiten. Auch das kann als Umwegskommunikation verstanden werden. Gerade bei neuen Begriffen dauert es meist bis die Plattform auf mögliche Verstöße reagieren kann. Auch in diesem Fall wird es schwierig sein, gegen den Begriff als solchen vorzugehen, da dieser wieder sehr kontextabhängig verwendet wird.

Selbsternannte “Talahons” (Quelle: Screenshot TikTok)

“Jeder Talahon ist einer zu viel” - Das Video von FPÖ-Kandidat Leo Lugner mit der Forderung nach Abschiebung von “afroarabischen Migranten” hat eine hohe Anzahl an Aufrufen, Likes und Kommentaren (Quelle: Screenshot TikTok)

Brainrot - Meme über Memes

Eine neue Generation bringt stets ihre eigenen Codes, Memes und Referenzen hervor. Ein Beispiel dafür ist der Begriff "brainrot", der zunehmend - und vor allem auf TikTok - verwendet wird. "brainrot" kann als Ausdruck eines selbstironischen Umgangs mit den negativen Folgen permanenter Reizüberflutung und Internetsucht gesehen werden. Er beschreibt eine Art digitale Erschöpfung oder Abstumpfung, bei der Konsum und Einsamkeit durch humorvolle Übertreibung thematisiert werden. Die Verwendung von "brainrot" zeigt, wie die jüngere Generation ihre Überforderung in einer zunehmend digitalisierten Welt durch sarkastische und nihilistische Ausdrucksweisen verarbeitet.
Der Begriff wird auch für Personen verwendet, die von einem bestimmten Thema auf TikTok so besessen sind, dass sie ständig darüber nachdenken oder sprechen. Die viele Zeit, die auf TikTok verbracht wird, macht sich bei einer Person, die als brainrot bezeichnet wird, also auch in der analogen Welt bemerkbar. Zum Beispiel, indem sie ständig in nieschigen Internetreferenzen kommuniziert und zunehmend realitätsfern wirken.


Was macht Algospeak mit dem demokratischen Diskurs?

Einige Wörter und Bezeichnungen, die ursprünglich abwertend und diskriminierend verwendet wurden, konnten von vielen Communitys wieder positiv besetzt und angeeignet werden. Der Begriff “queer” bedeutet übersetzt so viel wie “seltsam” oder “merkwürdig” und wurde im englischsprachigen Raum abwertend für Menschen außerhalb der cis geschlechtlichen oder heterosexuellen Norm verwendet. Spätestens seit Ende des 20. Jahrhunderts durchlebte der Begriff einen Änderungsprozess, indem er als positive Selbstbezeichnung verwendet wurde - und immer noch wird - und somit eben jene Norm infrage stellte. Auch der Begriff “fat” wurde von dicken Menschen zurückerobert und skandalisiert mit dem Ausdruck “fatshaming” die gewaltvolle und alltägliche Diskriminierung, der dicke Menschen nach wie vor ausgesetzt sind.
Durch Abwandlungen wie “f@t” (= fat) oder “Le$bian” (= Lesbe) könnten erkämpfte Begriffe wieder eine Retabuisierung erfahren. Hier wäre Transparenz von Plattformseite wichtig, um zu signalisieren, dass der Einsatz für LGBTIQ* Rechte oder Body Positivity Videos aufgrund algorithmischer Moderationspraktiken marginalisiert werden. Auch Inhalte für politische Aufklärungsarbeit sind hiervon gegebenenfalls betroffen. Algospeak kann also auch der Versuch von Creator*innen sein, wichtige Aufklärung und Bildungsinhalte vor einem Shadowban zu schützen, statt Themen auszuklammern.


Die Möglichkeit, über TikTok niedrigschwellig an Informationen zu gelangen, wird durch den Einsatz von Algospeak insbesondere für neue Nutzer*innen erschwert, da sie mit der Bedeutung dieser verschlüsselten Begriffe oft nicht vertraut sind. Neue Nutzer*innen, welche die Codes und Begriffe nicht verstehen, haben somit Schwierigkeiten, relevante Inhalte zu erkennen oder in Diskussionen einzutauchen. Zudem kann dies die Auffindbarkeit von wichtigen Informationen erschweren, da diese nicht in ihrer ursprünglichen Form erscheinen und von TikToks Algorithmus möglicherweise anders kategorisiert werden. Infolgedessen kommt es zu einer spürbaren Einschränkung der Aufklärungsmöglichkeiten auf TikTok.


Jug3ndspr4ch3?

Die fehlende Transparenz der Plattform macht es schwierig zu beurteilen, ob und in welchem Umfang bestimmte Inhalte durch automatische Filter schwerer zugänglich gemacht oder verborgen werden, um Hate Speech und problematische Äußerungen zu verhindern.
Dies wirft die Frage auf, ob Algospeak tatsächlich notwendig ist, um die Reichweite von Inhalten zu sichern oder ob es nur ein Symptom des undurchsichtigen Moderationsprozesses der Plattform ist. Denn trotz der angeblichen Zensur finden sich immer wieder rassistische und diskriminierende Ausdrücke auf TikTok, was Zweifel an der Notwendigkeit dieser sprachlichen Umgehungstaktiken aufkommen lässt. Die Tatsache, dass (hoch) problematische Inhalte weiterhin sichtbar sind, lässt vermuten, dass die technische Moderation offensichtlich Lücken aufweist. Man kann hier durchaus provokant die Frage stellen: Ist Algospeak überhaupt notwendig? 


Auch wenn die genaue Reichweite und Wirkung von Algospeak unklar ist, steht fest: Die digitale Welt verändert sich ständig und mit ihr auch die Art, wie wir kommunizieren. Es braucht Aufklärung und vor allem medienpädagogische Ansätze, die jungen Menschen einen bewussten Umgang mit Sprache und ihren Auswirkungen vermitteln. Dabei sollte der Fokus auf Medienkompetenz und kritischem Denken liegen, um Jugendliche darin zu stärken, zwischen kreativer Ausdrucksweise und antidemokratischen Codes zu unterscheiden. Rein durch automatisierte Filter, die bestimmte menschenfeindliche Inhalte ausblenden, lässt sich nicht zielgerecht intervenieren, da damit sowohl Aufklärungsformate, politische Bildung über problematische Inhalte, als auch die Supervision durch Humor unterbunden wird.


Weiterführende Informationen zum Thema Algospeak und digitalen Demokratiegefährdungen:

Belltower.News Artikel: Wie Gartenzwerge die Grenzen des Sagbaren verschieben

Interview: Wie rechtsextreme Ideologie auf TikTok zum Erfolg wird

Vortrag auf der re:publica: Algospeak und Umwegskommunikation?

https://aclanthology.org/2024.woah-1.10.pdf

Ihr habt Fragen oder Anmerkungen zu dem Newsletter oder unseren Inhalten?

Meldet euch gerne jederzeit bei uns! Ihr erreicht „pre:bunk" unter der Mailadresse:

prebunk@amadeu-antonio-stiftung.de
Amadeu Antonio Stiftung
Novalisstraße 12 I 10115 Berlin
www.amadeu-antonio-stiftung.de
facebook     instagram     twitter     tiktok
Newsletter abbestellen