de:hate

de:hate

Rechte Ideologien haben viele Gesichter und Ersch…

Transkript

Zurück zur Episode

Theresa Lehmann: Ich würde sagen, TikTok ist aktuell immer noch die Plattform der Stunde, die anderen sind ja teilweise auch in der Krise. TikTok wächst und wächst und wächst und dementsprechend werden wir auch weiter dranbleiben. 

Marcus Bösch: Was es auf TikTok auch gibt, ist sehr viel Miss- und Desinformation. Es gibt da Propaganda und es gibt Themen, die man vielleicht nicht auf dieser Plattform haben will, weil sie gegen Community-Guidelines oder das Gesetz oder gegen den guten Geschmack verstoßen.

Klara: Und dann, als die Hasskommentare angefangen haben, ist dieses Video irgendwie auf 250.000 Views angesprungen und das ist extrem viel gewesen und die Intensität und die Menge an Hassnachrichten, die ich bekommen habe, war einfach krass. 

Eva Kappl: Uns wird ja auch viel vorgeworfen, warum seid ihr denn da? Und wir sagen natürlich, na ja, wir sind da, weil dort die jungen Menschen sind und weil es nicht so einfach ist, jetzt zu sagen, ok diese Plattform hat problematische Inhalte, diese Plattform stammt irgendwie aus China, wir möchten uns mit dieser Plattform gar nicht mehr auseinandersetzen. Weil natürlich müssen wir uns auseinandersetzen, an der Stelle, wo diese Plattform so bekannt ist, wo so viele junge Menschen diese Plattformen nutzen.

Eva Kappl: Erfolgsmodell mit Nebenwirkungen

TikTok ist ein Erfolgsmodell: Innerhalb kürzester Zeit stieg die Plattform zu einer der am häufigsten heruntergeladenen Apps auf, knackte nach eigenen Angaben 2021 die Marke von 1 Milliarde monatlich aktiven Nutzer*innen. 2022 überholte TikTok in den USA sogar Instagram bei der täglichen Nutzung.

Auch in Deutschland boomt die App: Hier nutzen laut TikTok monatlich über 19 Millionen Menschen die App, meist Jugendliche und junge Erwachsene bis etwa 25 Jahre. 

In dieser Folge befassen wir uns mit dem Phänomen TikTok: Wie funktioniert die Plattform - was sind die Besonderheiten im Vergleich zu anderen Sozialen Netzwerken? Welche Probleme gibt es dort mit Hass, Diskriminierung und Desinformation? Und welche Chancen bietet TikTok, wenn es um politische und medienpädagogische Bildung geht?

Marcus Bösch: Die öffentliche Wahrnehmung von Tik tok lässt sich am Anfang, als die Plattform flächendeckend auch beispielsweise im deutschsprachigen Raum mehr und mehr genutzt wurde, lässt sich zusammenfassen mit diesem Satz: Tanzende Teenager.

Sagt Marcus Bösch - wissenschaftlicher Mitarbeiter an der Hochschule für Angewandte Wissenschaften (HAW) in Hamburg und TikTok-Experte. In seinem wöchentlichen Newsletter “Understanding TikTok” versucht er:

Marcus Bösch: “...irgendwann TikTok zu verstehen. Keine Ahnung wann das sein wird.”

Marcus Bösch: Im Gegensatz zu den meisten Leuten, die TikTok immer noch ausnahmslos mit tanzenden Teenagern verbinden, hat Bösch schon ziemlich viel verstanden. Denn er forscht unter anderem zu Desinformationskampagnen auf TikTok. Was die öffentliche Wahrnehmung der App angeht, so beschreibt er verschiedene Phasen.

Marcus Bösch: Also ganz viel Berichterstattung in tradierten Medien, drehte sich darum, die Kinder und Jugendlichen tanzen auf der App und eigentlich ist das ja alles Quatsch. Danach wurde eine neue Phase in der öffentlichen Wahrnehmung eingeläutet, denn plötzlich war TikTok unglaublich gefährlich. In der befinden wir uns bisweilen leider immer noch. Es gibt sehr viele Artikel von Menschen, die die Plattform vielleicht auch nicht so richtig gut kennen, in denen behauptet wird, dass gefährliche Challenges auf der Plattform dafür verantwortlich sind, dass Leute sterben, Schultoiletten oder Kinos zertrümmern und überhaupt sei das alles etwas sehr Gefährliches. Bisweilen gibt es diese Challenges sicher auf der Plattform sowie auf allen anderen auch. Aber die Berichterstattung darüber erscheint hier und da dann doch ein bisschen überzogen oder etwas verkürzt. Zunehmend gibt es aber auch Stimmen, die sagen, OK, wir können hier auf der Plattform auch Zielgruppen erreichen, die wir vorher oder anders so nicht erreichen können, also alles unter dem Schlagwort Chancen, und das finde ich persönlich natürlich ganz gut.

Marcus Bösch: TikTok als Chance - das sehen auch Eva Kappl und Theresa Lehmann von der Amadeu Antonio Stiftung so. Seit mehreren Jahren arbeiten sie in verschiedenen Projekten zu TikTok und befassen sich mit medienpädagogischen Ansätzen. 

Mit dem aktuellen Projekt pre: bunk sind sie auch mit einem eigenen TikTok-Kanal unterwegs. Das klingt dann unter anderem so:

https: //www.tiktok.com/@prebunk/video/7238977763661614362

https: Hi ich bin Eva und ich interessiere mich unter anderem für Geschichte und Medienpädagogik. Außerdem verbringe ich ziemlich viel Zeit auf der Plattform. Das heißt, ich kenne meistens die neuesten Trends und Funktionen. Ich bin deine Ansprechpartnerin, wenn dir ein aktueller Trend komisch vorkommt, wenn du das Gefühl hast, dass da was verkürzt wird oder das z.B. auf einem History-Account etwas nur einseitig dargestellt wird. 

https: //www.tiktok.com/@prebunk/video/7237408301187697947?q=prebunk&t=1692801751884 

https: “Hallo, ich bin Theresa und als Digital Streetworkerin bin ich da, wenn ihr aus Versehen mal Falschinformationen geteilt habt, wenn wegen der aktuellen Nachrichtenlage mal wieder der Weltschmerz kickt. Ich freu mich von euch zu hören”

Digital Streetwork - das heißt, im digitalen Raum für junge Menschen ansprechbar zu sein: Statt im Jugendclub um die Ecke sind Theresa, Eva und ihre Kolleginnen von pre:bunk auf TikTok unterwegs und kommen dort mit jungen Menschen ins Gespräch. Dabei klären sie darüber auf, wie Falschinformationen auf TikTok funktionieren, analysieren aktuelle Trends und unterstützen dabei, mit der Informationsflut auf TikTok und darüber hinaus umzugehen. Ihr Ziel: Brücken schlagen über digitale Kluften und junge Menschen dabei unterstützen, sich medienkompetent auf der Plattform zu bewegen. 

Theresa Lehmann: Auf TikTok gibt es eben eine große Chance, auch eine digitale demokratische Zivilgesellschaft zu gestalten und zu unterstützen. Und aber auch natürlich im Angesicht von Hassrede und koordinierten Angriffen von Antifeministen, Rechtsextremen und anderen Demokratiefeinden diese zu unterstützen, ihnen dabei zu helfen, sich vor diesen Angriffen zu schützen und eben auch gezielt gegen dagegen vorzugehen.

Welche Rolle Hassrede auf TikTok spielt und wie man sich davor schützen kann, schauen wir uns später noch an. Zunächst aber nochmal einen Schritt zurück zur öffentlichen Wahrnehmung von TikTok. Auch Eva Kappl beobachtet, dass die App immer noch von vielen Menschen missverstanden wird:  

Eva Kappl: Gleichzeitig herrscht immer noch die Meinung bei ganz vielen Menschen, dass TikTok eben diese reine Unterhaltungsseite ist.  Also diese Plattform, wo es irgendwelche Challenges gibt, irgendwelche Tänze, ganz viel gelipsinct wird zu irgendwelchen Popsongs und wo immer eigentlich noch hauptsächlich Quatsch oder Comedy quasi der Inhalt der Videos ist. Und das ist so ein bisschen ein Thema, was wir natürlich versuchen aufzubrechen, bzw. was ganz viele Menschen, die sich mit dieser Plattform beschäftigen und die auf dieser Plattform sind, versuchen aufzubrechen. Denn natürlich hat man auf TikTok nicht nur diese Inhalte, klar, das ist auch Teil davon. Das ist auch so ein bisschen Teil vom Ursprung. Aber mittlerweile findet man jeden Inhalt auf dieser Plattform. 

Eva Kappl: Um zu verstehen, wie TikTok funktioniert, müssen wir uns anschauen, wo die Plattform herkommt. TikTok gehört zu ByteDance, einem chinesischen Internet-Technologieunternehmen, das in Peking sitzt und mehrere Content-Plattformen besitzt - eine davon TikTok.

2018 kaufte ByteDance die Social Media-App Musical.ly - eine Plattform, die vor allem dafür bekannt war, dass junge Menschen dort sogenannte Lipsincs aufnahmen, also ihre Lippen synchron zu einem selbst ausgewählten Full-Playback-Lied bewegten und sich dabei filmten. Daher also die Assoziation der tanzenden Teenager. Und klar, die gibt es auch heute noch auf TikTok. Aber eben nicht nur. Das betont auch Theresa Lehmann. Mit dem Wachstum der Plattform habe sich das Themenspektrum extrem ausdifferenziert. Und heute, sei TikTok auch eine Lernplattform:

Theresa Lehmann: Weil einer der größten Hashtags auf TikTok ist “Lernen mit TikTok”, das gilt sowohl für den deutschsprachigen als auch für den englischsprachigen Raum. Und da finden sich zahlreiche Erklärvideos, Formate von Experten. Es gibt aber auch zum Beispiel Menschen, die ihr Berufsfeld vorstellen und jungen Menschen zeigen, wie ihr Berufsalltag aussieht, die beantworten Fragen dazu. Die Book Tok Bubble ist sehr groß und dort stellen Lesebegeisterte ihre aktuellen Lieblingsbücher vor, rezensieren die und empfehlen die weiter. 

Theresa Lehmann: Mit dem Wachstum der Plattform hat sich auch die politische Seite von TikTok entwickelt. Die Jim-Studie des Medienpädagogischen Forschungsverbunds Süd-West untersucht einmal im Jahr die Mediennutzung von 12- bis 19-Jährigen. Im vergangenen Jahr kam die Studie zu dem Ergebnis, dass 25 % der 12- bis 19-Jährigen TikTok auch dafür nutzen, um sich über das aktuelle Tagesgeschehen zu informieren. Während die Eltern um 20 Uhr vor der Tagesschau sitzen, scrollt sich die Gen Z also durch TikTok, um auf dem Laufenden zu bleiben. 

Theresa Lehmann: Darauf reagieren auch politische Akteur*innen, die angefangen haben, die Plattform für sich zu nutzen und komplexe Themen in kurzen Videos zu transportieren. 

Theresa Lehmann: Also sie nutzen die Plattform einerseits, um auf gesellschaftliche Probleme aufmerksam zu machen oder über die eigene Identität aufzuklären. Und das, obwohl die Plattform selber nie ein dezidiert politischer Ort sein wollte. Aber dieser Prozess war, wie gesagt, mit der steigenden Größe und Relevanz nicht mehr aufzuhalten.

Theresa Lehmann: Beispiele dafür sind antirassistische Kampagnen, wie “Black Lives Matter” oder “Stop Asian Hate”, die auf TikTok großen Widerhall gefunden haben. Auch die großen Krisen unserer Zeit werden hier verhandelt, wie Klima, Corona oder das weltweite Erstarken von Rechtsextremen. 

Theresa Lehmann: Aber spätestens auch im letzten US-Wahlkampf, als Trump vor einer fast leeren Halle in Tulsa auftreten musste, hat es sich gezeigt, was für eine Power hinter TikTok eigentlich stecken kann, weil im Vorfeld der Veranstaltung K-Pop-Fans auf TikTok dazu aufgerufen hatten, Plätze in der Halle zu reservieren und dann nicht zu erscheinen. Und damit waren sie sehr erfolgreich gewesen.

Theresa Lehmann: Auch in Deutschland nutzen Menschen die Plattform politisch. Ein Großteil der deutschen Medienhäuser ist mittlerweile vertreten, genauso wie Politiker*innen, NGOs und Aktivist*innen. Die Grenzen zwischen politischem Aktivismus, Journalismus und Unterhaltung verlaufen hier oftmals fließend. Aber das ist kein Hindernis dafür, dass auch ernste Themen verhandelt werden. So sind zum Beispiel auch einige Gedenkstätten auf TikTok aktiv und Holocaust-Überlebende beantworten Fragen von jungen Menschen.

TikTok als Lernplattform, wo politische Bildung stattfindet und antirassistische Kampagnen geteilt werden. Klingt erstmal sehr vielversprechend. Aber dann ist da natürlich auch noch eine ganz andere Seite:

TikTok als Lernplattform, wo politische Bildung stattfindet und antirassistische Kampagnen geteilt werden. Klingt erstmal sehr vielversprechend. Aber dann ist da natürlich auch noch eine ganz andere Seite: Hass & Gruppenbezogene Menschenfeindlichkeit auf TikTok

Klara: Ich würde sagen, auf TikTok wird ganz viel gruppenbezogene Menschenfeindlichkeit verbreitet, ganz viel Frauenverachtung perpetuiert, Transfeindlichkeit ist ein riesen Problem und rechte bis rechtsextreme Content-Creatoren haben eine große Reichweite und da versuche ich, einen Gegenpol zu setzen.

Klara: Klara ist Anfang 20 und studiert Jura. Auf TikTok befasst Klara sich vor allem mit politischen Themen, mit Sexismus, Transfeindlichkeit, Rassismus und Rechtsextremismus. 

Klara: Aufklärungscontent nennt Klara das und will damit vor allem junge Menschen erreichen, die mit Politik vielleicht erstmal gar nicht so viel zu tun haben. Niedrigschwellig sollen die Videos sein und ein Gegengewicht darstellen zu menschenfeindlichen Inhalten auf TikTok. Gerade transfeindlicher Content habe in letzter Zeit extrem zugenommen, erzählt Klara. Diese Inhalte seien oft ein Einfallstor für frauenverachtende und rechtsextreme Inhalte.

Klara: Das ist so das Thema, auf das sich alle einigen können, als Einfallstor und das ist so die größte und besorgniserregende Entwicklung, die ich mitbekommen habe und die so gut funktioniert.

Klara erzählt auch von ihren persönlichen Erfahrungen mit Hass auf TikTok. Ein besonders krasses Beispiel war Klaras erstes Video, das viral ging. Der Auslöser: Klara stitcht ein Video eines antifeministischen Creators mit großer Reichweite. Stitchen heißt, dass man einen kurzen Ausschnitt eines anderen Videos nimmt und darauf dann mit einem eigenen Video reagiert. Der Creator hatte einen Vergewaltigungs-Witz gemacht, das kritisierte Klara in ihrem Video. Zunächst bekommt Klara viel positives Feedback dafür. Dann reagiert der antifeministische Creator wiederum auf Klaras Video, macht so seine Followerschaft auf Klara aufmerksam.

Es folgt eine riesige Welle des Hasses: Klaras Kommentarspalte wird mit Beleidigungen und Gewaltandrohungen geflutet. Und das nicht nur auf TikTok - auch auf Instagram bekommt Klara von fremden Leuten Hasskommentare. Klara fühlt sich extrem überfordert.

Klara: Keine Ahnung, man ist es schon gewöhnt, dass man einfach so beleidigende, verletzende Kommentare bekommt, aber noch nie in so einem Ausmaß wie da. Weil dieses Video lief ganz gut für meine Verhältnisse, mein Account war super klein, ich glaub weniger als 1000 Follower zu dem Zeitpunkt. Dieses Video hat aus meiner Bubble heraus irgendwie 30.000 Views bekommen und dann, als die Hasskommentare angefangen haben, ist dieses Video irgendwie ich glaube auf 250.000 Views angesprungen und das ist extrem viel gewesen und die Intensität und die Menge an Hassnachrichten, die ich bekommen habe, war einfach krass. 

Was Klara beschreibt, ist eine weitere Besonderheit von TikTok: Denn hier kann es theoretisch jede und jeder schaffen, ohne viele Follower*innen viral zu gehen: Ohne das man es beabsichtigt, wird das eigene Video dann plötzlich tausenden Menschen angezeigt. Eva Kappl ordnet das so ein:

Eva Kappl: Ich glaube, was wichtig zu verstehen ist, gerade für sehr junge Menschen, ist eben diese enorme Reichweite, die auch die eigenen Videos bekommen können, obwohl man da vielleicht an der Stelle gar nicht damit rechnet und gar nicht damit plant. Und mit so einer enormen Reichweite kommt natürlich auch ein riesiges Kommentaraufkommen. Also wir sehen das bei Videos, die wirklich viral gehen. Da hat man wenig Chance, noch einen Überblick dazu zu bekommen, was eigentlich in der Kommentarspalte abgeht. Da hat man wenig Chance, das eigentlich noch so ein bisschen einzugrenzen. 

Eva Kappl: Im Unterschied zu anderen Plattformen gibt es auf TikTok nicht nur eine Kommentarspalte, in der sich Hass und Hetze ergießen können. Durch die Funktionen von Stitch und Duett können Personen direkt mit Bild auf andere Creator*innen antworten und reagieren.

Eva Kappl: Wir haben eben auch eine gewisse Form von Selbstmemefizierung. Also ich glaube, das ist wirklich wichtig zu verstehen: In den meisten TikTok- Videos hat man einen Mensch im Mittelpunkt des Videos. Wir haben ein Gesicht. Wir haben genau den Menschen, der spricht, der irgendwie was kommentiert. Und dementsprechend eben diese Selbstmemeifizierung, die dann eine sehr große Rolle spielt und die dann gerade bei diesem Thema Hate Speech auch noch mal besondere Herausforderungen einfach mit sich bringt. Wenn wir uns auch damit beschäftigen, wie wollen wir damit umgehen? 

Eva Kappl: Der Shitstorm, der über Klara rollt, dauert an - und der Creator, dessen Followerschaft gegen Klara hetzt, lässt nicht locker.

Klara: Dieser Creator hat insgesamt drei Mal ein Video über mich gemacht und jedes Mal ist genau dasselbe passiert und das ist einfach schon krass, wenn da Leute, dir auch einfach wünschen, dass dir Gewalt angetan wird oder dir wünschen, dass du stirbst oder dich einfach aufs Übelste persönlich angreifen und beleidigen. Und gerade wenn man dann halt nicht in dieses normschöne Bild passt, das so misogyne Männer nice finden, dann bietet man unfassbar viel Angriffsfläche und auch wenn ich selbst denke, ich bin eigentlich comfortable damit, wie ich aussehe, wenn du den zwanzig tausendsten Kommentar dazu liest, wie hässlich irgendjemand dich findet und das halt einfach so wirklich grafisch ausschmückt mit Beleidigungen, das geht einem echt nahe und es ist einfach super belastend, diese Stressreaktion und vor allem du weißt nicht wann es aufhört, weil man denkt so, ok es ist fein und so zwei Stunden später hat das Video wieder 50.000 Aufrufe mehr und das sind einfach noch viel mehr Kommentare und das ist einfach unheimlich auch und anstrengend.

Was Klara erlebt hat, ist kein Einzelfall. Theresa Lehmann spricht in diesem Kontext von Hatefluencern:  

Theresa Lehmann: Als Hatefluencer bezeichnen wir Creator*innen, die ihre ganzen Videoinhalte im Endeffekt darauf auslegen, andere Accounts, andere Creator*innen anzugreifen, die zu diffamieren und ihre Follower*innen auf diese Accounts aufmerksam zu machen, also die zu markieren. Und indirekt dazu aufrufen, es ihnen gleichzutun. Also ebenfalls diese Accounts anzugreifen. 

Theresa Lehmann: Häufig trifft das Menschen, die progressive Themen ansprechen, die sich gegen Transfeindlichkeit, gegen Rassismus oder Sexismus positionieren. Der Creator, dessen Followerschaft Klara tagelang beleidigte und bedrohte, sei ein Beispiel für einen solchen Hatefluencer.

Theresa Lehmann: Der verbreitet regelmäßig antifeministische, rassistische und antisemitische Inhalte und greift mit seinen Videos dezidiert progressiv auftretende Accounts. Und meistens braucht es dann gar keinen direkten Aufruf, sondern nur eben diese Auswahl dieser Hatefluencer. Also für die Follower von Hatefluencern spielt es keine Rolle, was gesagt wird, sondern wer quasi markiert wird. Und dann hat man schon verstanden, wie man damit umgehen muss und die Folge ist eben antifeministische, rassistische, antisemitische Hassrede, und das ist auch ein crossmediales Phänomen. Das heißt, wenn solche Personen einmal ausgewählt wurden für diese Attacke, dann bekommen sie meistens gleich auch auf mehreren Plattformen diesen Hass ab. Und für die Betroffenen ist es insofern ein Problem, dass sie sich dem Ganzen gar nicht mehr entziehen können und es zunehmend schwerer wird, sich zu äußern, weil sie ja einer koordinierten Kampagne ausgesetzt sind.

Eine extrem belastende Situation. Wie kann man damit umgehen? Klara hilft es in solchen Fällen vor allem mit Freund*innen zu sprechen. Und sich selbst mehrere Dinge klar zu machen:

Klara: Ja es ist mega Scheiße, aber das sind halt die Dynamiken die auf TikTok so sind und das ist auch die Verantwortung von diesem Creator dann zu sagen, so mach das mal nicht, aber das passiert halt nicht bei misogynen Creator*innen. Und mir hilft glaube ich einfach, dass für mich so zu framen, dass du einen Nerv getroffen hast. Also du hast ein Thema angesprochen, worüber geredet werden muss und zum anderen, dass du Projektionsfläche bist und dass es gar nicht um mich als Person geht, sondern die Personen haten mich jetzt ab, weil ich diese Themen angesprochen habe und projizieren dann ihre gesamte Misogynie und ihre gesamte Transfeindlichkeit da rein und laden das einmal bei mir ab.

Klara: Eva Kappl von der Amadeu Antonio Stiftung betont, dass es wichtig sei, mit jungen Menschen darüber zu sprechen, wie sie sich auf TikTok vor Hass schützen können. Zum Beispiel, indem man die Funktion von Stitch oder Duett einschränkt, umso mehr Kontrolle darüber zu bekommen, wie der eigene Content verbreitet wird. 

Eva Kappl: Gleichzeitig hat man bei TikTok auch die Möglichkeit, die eigene Kommentarspalte sehr viel einzuschränken beziehungsweise zu filtern. Also es gibt die Möglichkeit von Kommentarfiltern, gewisse Begriffe kann man von Anfang an quasi eingeben, die werden dann gar nicht mehr angezeigt und man muss dann, wenn man gewisse Begriffe quasi filtert, muss man die auch händisch freigeben, wenn die dann als in den Kommentaren auftauchen und auch da hat TikTok verschiedene Stufen. Also man kann sagen, die Kommentare sollen nur ganz leicht nach offensichtlichen Beleidigungen gefiltert werden oder auch stärker, auch da muss man dann im Zweifel mehr Kommentare freigeben, aber auch so hat man die Möglichkeit erstmal ein bisschen einzuschränken, was in der Kommentarspalte überhaupt passiert.

Neben gezielten Hassattacken, gibt es auf TikTok noch einen anderen Bereich, der problematisch ist: Desinformation 

Neben gezielten Hassattacken, gibt es auf TikTok noch einen anderen Bereich, der problematisch ist: Desinformation auf TikTok

Marcus Bösch: Was man jetzt final und abschließend genau unter Desinformationen versteht, das ist im akademischen Kontext noch einer konstanten Debatte unterworfen. Überhaupt wird sich mit diesem Themenfeld in den Sozialwissenschaften eigentlich erst intensiv seit 2017 auseinandergesetzt, also Post-Trump oder “mittendrin Trump”, könnte man sagen. 

Marcus Bösch von der HAW Hamburg befasst sich intensiv mit Desinformationskampagnen auf TikTok. Auch wenn die Forschung dazu noch recht jung sei, so könne man sich in der Wissenschaft doch darauf einigen, dass man unter Desinformation faktisch falsche Informationen versteht, die - und das ist zentral: mit einer bewussten Täuschungsabsicht geteilt werden.

Marcus Bösch: Also wenn ich jetzt irgendwas poste und denke so, “Ah, hier voll gut, ganz gefährlich das mit den Mikrochips”, aber ich weiß es nicht besser, dann ist das Misinformation, weil ich persönlich jetzt beispielsweise als Nutzer keine Intention habe zu täuschen. Wie man an diesem Beispiel sieht, gehören Desinformation und Misinformationen trotzdem zusammen, ganz oft ist es der Fall, dass Akteure und Akteurinnen Desinformation streuen, die dann weiterverbreitet werden, aber quasi nicht mehr mit der Täuschungsabsicht, aber trotzdem weiter verbreitet werden. 

Ein Beispiel zur Veranschaulichung: Eine zahlenmäßig erfolgreiche Desinformationskampagne konnte man auf TikTok nach der russischen Invasion in der Ukraine beobachten. In Anlehnung an die antirassistische Bewegung “Black Lives Matter” wurde der Hashtag “Russian lives matter” auf TikTok verbreitet. In Videos zu dieser Kampagne tanzten Creator*innen aus Russland zu einem auf der Plattform sehr bekannten und beliebten Sound. Aber ihre Performance sah anders aus als bei ihren amerikanischen Counter Parts. 

Marcus Bösch: In ihrer Performance geht es nämlich darum, wie echte russische Frauen sich grüßen und das Ganze mündet im Zeigen des Z-Zeichens mit den eigenen Fingern. Und dieses Zeichen ist ja quasi das popkulturelle Symbol für den russischen Angriffskrieg in den ersten Wochen und Monaten Invasion gewesen und da kann man zahlenmäßig sehen, dass sich das sehr sehr gut verbreitet hat.

Desinformationen sind kein neues Phänomen. Als Mittel der Propaganda werden sie schon lange gezielt eingesetzt, sei es von staatlichen Stellen, politischen Parteien, Gruppen oder Einzelpersonen. Ziel ist es dabei, Stimmung in der Bevölkerung zu machen, Verwirrung zu stiften, Gesellschaften zu destabilisieren. Marcus Bösch nennt ein weiteres Beispiel:

Marcus Bösch: Also beobachten lässt sich auf TikTok, dass es in einem AfD-nahen Umfeld beispielsweise sehr viele Accounts gibt, die sich relativ einfach tracken lassen und es sieht zumindest so aus, dass die aus einem russischen Kontext kommen. Beziehungsweise kann man nachweisen auf der Plattform, dass es Accounts gibt, die von russischen Staatsmedien verbreitet werden und einfach Falschinformationen über deutsche Politiker*innen verbreiten und damit Unruhe stiften wollen oder so ein generelles Unsicherheitsgefühl verbreiten wollen. Und wenn das nicht von der Plattform gekennzeichnet wird oder heruntergenommen wird oder gesetzlich nicht verfolgt wird, dann gibt es hier einfach gesellschaftliche Auswirkungen, die man im Blick haben sollte.

Desinformation ist bei weitem kein Problem, dass nur auf TikTok existiert. Aber es gibt einige Besonderheiten, die die Plattform mitbringt, die wir von anderen Sozialen Netzwerken nicht kennen. Eva Kappl weist dabei auf eine weitere Eigenheit von TikTok hin: Ein Phänomen, dass die Expertinnen auch “Misinfo by Design” nennen: 

Eva Kappl: Zum einen ist es so, dass Videos auf der for you page grundsätzlich keinen Datumstempel haben. Also wir können nicht einsehen, wann ein Video eigentlich hochgeladen wurde. Man kann sich das so ein bisschen erschließen, wenn man zum Beispiel in die Kommentare guckt, also bei den Kommentaren sieht man immer, wie alt die sind und man kann es auch rausfinden, wenn man quasi nochmal von dem Video auf der for you page auf das Profil des Creators oder Creatorin geht, dann nach unten scrollt oder halt eben dahin wo das Video ist und dann nachschaut. Dann wird einem das auch angezeigt, aber auf der for you page sieht man es erstmal nicht.

Eva Kappl: Hinzu kommt, dass Videos auf TikTok auch noch Monate, sogar Jahre nach ihrer Veröffentlichung viral gehen können. Das liegt vermutlich daran, dass der Algorithmus Videos, wenn sie gut funktionieren, einfach häufiger noch einmal ausspielt. Wenn man dann nicht direkt nachvollziehen kann, wann ein Video genau gepostet wurde, birgt das die Gefahr, auch unfreiwillig falsche Informationen zu glauben oder diese weiter zu verbreiten. 

Eva Kappl: Also wenn wir zum Beispiel daran denken, wie zu Beginn der Corona-Pandemie die Situation mit den Impfstoffen war, da hat sich ja zum Teil die Lage innerhalb von wenigen Wochen geändert und wenn man dann darüber nachdenkt, dass Videos eben Monate später nochmal viral gehen, viele Menschen erreichen, dann können sich so auch einfach Falschinformationen auf der Plattform verbreiten.

Eine weitere Eigenheit von TikTok, die Desinformation begünstigt, betrifft die Sound-Ebene: Denn grundsätzlich kann fast jede Tonspur eines anderen Videos auch für das eigene Video verwendet werden. 

Eva Kappl: Also wenn ich einfach ein Video posten würde, irgendwas erklären würde und keinen weiteren Sound drüber lege, dann könnte jede andere Person, jeder andere Nutzer/Nutzerin diesen Sound quasi nutzen und so tun, als würde sie zum Beispiel das sagen, was ich sage.

Zwar wird diese Funktion hauptsächlich für Comedy-Videos benutzt und häufig entstehen so Trends und Memes auf TikTok. Aber sie birgt auch Gefahren:

Eva Kappl: Das haben wir insbesondere zu Beginn des Krieges in der Ukraine gesehen, dass zum Beispiel Audiospuren von Computerspielen, wo man Schüsse gehört hat, dann verwendet wurden, um Situationen dramatischer erscheinen zu lassen, als sie eigentlich sind und es eben für viele User*innen schwierig ist, nachzuvollziehen, dass es eben nicht der Originalton ist. Weil man es bei TikTok auch so gewohnt ist, dass andere Sounds benutzt werden. 

Eva Kappl: Die Sound-Ebene ist nur eine von vielen Ebenen, die in ihrem Zusammenspiel auf TikTok wirken. Um Desinformationen oder menschenfeindliche Inhalte zu erkennen, muss man sich alle Ebenen genau anschauen. Diese Mehrebenenanalyse spielt für Eva Kappls und Theresa Lehmanns Arbeit eine wichtige Rolle. Wenn sie Videos auf TikTok analysieren, achten sie neben der Sound-Ebenen auch auf den Hintergrund - also Requisiten, das Setting, sie schauen auf Emojis und Schriftarten, die verwendet werden, auf die Mimik und Gestik. Oftmals ergibt sich die Botschaft eines Videos erst aus dem Zusammenspiel von all diesen Ebenen. 

Theresa Lehmann: Und da spricht man in der Linguistik von Multimodalität, im Marketing von Multi Layered Storytelling. Ein einfaches Beispiel aus unserer Arbeit, wie sowas funktioniert, wäre, dass die Bildebene der Nutzerin einen Boden darstellt, wo mit Turnschuhen darauf rumgetrampelt wird und an der Stelle, wo der Schuh auftritt, taucht ein Emoji von einer Regenbogenflagge oder einer Israel-Flagge auf. Das ist ein relativ einfaches und eingängiges Beispiel, wie man sich so ein Zusammenspiel vorstellen kann in der Praxis. Oftmals ist es aber auch so kompliziert oder so komplex, dass vor allen Dingen junge Nutzer*innen diese Botschaften auch nicht erkennen, also sogenanntes Dogwhistling betrieben wird.

Theresa Lehmann: Dogwhistle - wörtlich übersetzt bedeutet das “Hundepfeife” - eine Pfeife, die einen besonders hohen Ton macht, der nur von Hunden, nicht aber von Menschen gehört werden kann. In politischen Kontexten beschreibt der Begriff also eine versteckte Bedeutung, die nicht auf den ersten Blick oder nur von Anhänger*innen oder Eingeweihten erkannt werden kann. Die eigentliche Aussage des Inhalts wird erst durch den Kontext ersichtlich. Durch Codes und Signalwörter können z.B. rassistische oder antisemitische Aussage für die breite Masse nicht erkennbar sein. Rechtsextreme benutzt Dogwhistles gerne als Strategie, um sich harmlos und gemäßigt zu präsentieren. Und so umgehen sie einerseits die Sperrung der Inhalte und können sich gleichzeitig  darauf berufen, ja eigentlich etwas ganz anderes gemeint zu haben.

Theresa Lehmann: Hass und Desinformation - was kann man dagegen tun?

Solche Strategien zu kennen und ein Gespür dafür zu bekommen, mit welchen Mitteln menschenfeindliche Inhalte und Desinformationen auf TikTok verbreitet werden, ist wichtig, um sich davor schützen zu können. Marcus Bösch empfiehlt außerdem:

Marcus Bösch: Ich kann ein Video natürlich melden, ich kann in den Kommentaren darauf hinweisen, dass Videomaterial beispielsweise schon vor 10 Jahren auf YouTube geteilt wurde und dass es sich hier nicht um aktuelles Videomaterial aus der Ukraine oder Ähnlichem handelt. Um Desinformationen zu erkennen, kann ich auch immer auf den Sound unter einem Video drauf tippen, um zu sehen, ob es sich hier wirklich um ein Originalsound handelt oder ob dieser Sound, wie bei TikTok nun mal üblich, in hunderten oder tausenden Videos schon verwendet wurde, denn dann habe ich es zumindest bei so Quellen, beispielsweise sagt jemand hier, ich bin mitten in dieser Situation im Krieg, da hab ich schon mal sichergestellt, OK, es handelt sich nicht um einen original Inhalt.

Ein ganz konkreter Tipp, um TikTok-Inhalte kritischer zu konsumieren, ist die Bilderrückwärtssuche, mit der überprüft werden kann, wo ein Video herkommt. Solche Tools, erklären Theresa Lehmann und Eva Kappl auch in ihren Videos. Aber ihnen ist es besonders wichtig, in ihrer Arbeit nicht nur auf Fakten einzugehen. Ihnen geht es vor allem auch um psychosoziale Aspekte, also sich anzuschauen, mit was junge Menschen eigentlich gerade konfrontiert sind auf der Plattform: nämlich mit multiplen Krisen und einer bedrückenden Nachrichtenlage, die schnell überfordern kann. 

Theresa Lehmann: Und ja, das führt eben auf TikTok auch dazu, dass es eine große Gerüchteküche gibt, eine starke Polarisierung und Emotionalisierung von Inhalten, die eben diese Überforderung auch noch weiter anfachen kann. Und da möchten wir ein Angebot schaffen, dem etwas entgegenzusetzen, um Gefühlen wie Orientierungslosigkeit, Ohnmacht, Wut oder Angst auch Raum zu geben und zu gucken, wie kann man damit umgehen, wie kann ich erkennen, dass antidemokratische Akteur*innen genau diese Emotionen nutzen, um dann gezielt Falschinformationen zu verbreiten und junge Menschen auch weiter zu verunsichern, ihr Wahrheitsgefühl nachhaltig zu zerstören.

Theresa Lehmann und ihre Kolleginnen entwickeln dafür Strategien, die sie jungen Menschen mit an die Hand geben wollen, damit sie Videoinhalte kritischer konsumieren und Inhalte besser einordnen können. Das sei auch um einiges nachhaltiger: Denn sind Falschinformationen erstmal verbreitet und dann folgt erst die Aufklärung, ist es viel schwieriger junge Menschen noch zu erreichen, weil die falschen Informationen dann oftmals bereits eingeprägt sind-

Wie wichtig es ist, die Funktionsweisen und Eigenheiten von TikTok zu kennen, verdeutlicht Eva Kappl anhand von gelöschten Videos:

Eva Kappl: Jetzt ist es aber so, dass wir eben, wenn Videoinhalte gelöscht werden, gemeldet werden oder selber runtergenommen werden, zwar das original Video nicht mehr zu sehen ist, aber wenn Menschen das vorher schon duettet haben, wenn Menschen das gestitcht haben, dann sieht man den Content quasi trotzdem noch, weil eben diese Ausschnitte in diesem neuen Video noch weiterhin einsehbar sind. Also zum Beispiel bei Impfgegner*innen, da sehe ich das ganz häufig, dass Videos duettet werden, die Falschinformationen enthalten, um eine größere Reichweite zu bekommen. Und dann ist es vielleicht so, dass das Originalvideo schon von der Plattform gelöscht wurde, aber trotzdem sieht man den falschen Inhalt weiterhin, weil er eben im Duett bzw. im Stitch nochmal gezeigt wird. 

Eva Kappl: Es bleibt also kompliziert. Die vielschichtigen Ebenen, die bei TikTok zusammenwirken und die Funktionsweisen der App machen es erforderlich, dass man sich sehr genau mit der Plattform befasst. Umso wichtiger ist Aufklärung, umso wichtiger ist es, dass TikTok nicht Hatefluencern überlassen wird - dass Leute dagegen halten, sich solidarisieren. 

Eva Kappl: Wünsche für die Zukunft

Eva Kappl: Mit jungen Menschen ins Gespräch kommen, ihre Bedürfnisse und Lebenswelten ernstnehmen, sich damit auseinandersetzen, was auf TikTok alles passiert, wie die Plattform funktioniert. Und auch anzuerkennen, dass es viele junge Menschen gibt, die die Plattform positiv gestalten, die sich politisch engagieren und die Potenziale nutzen - Dafür setzen sich Theresa Lehmann und Eva Kappl auch weiterhin ein. Was wünschen sie sich für die Zukunft?

Theresa Lehmann: Ich würde sagen, TikTok ist aktuell immer noch die Plattform der Stunde, die anderen sind ja teilweise auch in der Krise. TikTok wächst und wächst und wächst und dementsprechend werden wir auch weiter dranbleiben. Die aktuellen Diskussionen über ein mögliches Verbot beschäftigen uns aus demokratiebildnerischer Perspektive ebenfalls. Und da wünschen wir uns ehrlich gesagt, dass diese Kluft zwischen TikTok-Nutzenden und der politischen Debatte, die abseits davon stattfindet, geschlossen wird. Also dass junge Menschen da nicht außen vor sind. Total wichtig, denn man muss bei aller berechtigter Kritik schon auch sagen, dass so ein Verbot für junge Menschen wie die Schließung eines Jugendclubs gleichkäme, wenn man das mal ins Analoge übersetzt und das wäre einfach so fatal nach allem, was junge Menschen jetzt auch im Zuge von Corona mitmachen mussten und eben auch dort einen Rückzugsort gefunden haben. 

Theresa Lehmann: Aber auch TikTok selbst müsse in die Pflicht genommen werden, betont Theresa Lehmann. Jugend- und Datenschutz müssten ernster genommen und die Moderation müsse besser geschult werden, um menschenfeindliche Inhalte klarer identifizieren zu können und konsequenter gegen rechtsextreme Akteur*innen auf der Plattform vorzugehen.

Theresa Lehmann: Und auch beim Thema Desinformation ist noch Luft nach oben. Und ich finde eigentlich, dass die Plattform schon gezeigt hat, dass sie da durchaus in der Lage ist, noch mehr zu tun. Das hat man während Corona gesehen, aber auch während der letzten Bundestagswahl, wo es durchaus Orientierungshilfe in Form von der Bauchbinde und einer Info-Webseite gab und so auf Falschinformationen oder die Prävention dagegen eben auch in Kraft getreten ist, das heißt, da gibt es Möglichkeiten. Andere Plattformen zeigen ja auch an, wenn es sich um unseriöse Medienangebote und Propaganda handelt. Auch das wäre natürlich noch eine Option, genauso wie die Unterstützung von Good Actors im Bereich, Debunking. 

Eva Kappl wünscht sich ganz grundsätzlich, dass es erstmal ein breiteres Verständnis für die Plattform gibt:

Eva Kappl: Ich glaube, das hat sich schon sehr viel gebessert, es wird immer mehr, aber immer noch in Gesprächen gerade mit Lehrkräften habe ich ganz häufig dieses “Ja, ok, TikTok, da sind die ganzen jungen Leute, aber das ist ja nur Quatsch, was man da irgendwie sieht” und dass man versteht, was auf dieser Plattform passiert, um dann auch mit jungen Menschen darüber sprechen zu können und auch über die Gefahren sprechen zu können. 

Ein Learning, das Eva Kappl aus der bisherigen Arbeit zieht: Es gibt zwar sehr viel Aktivismus auf TikTok, aber viele User*innen nehmen sich selbst gar nicht so sehr als Aktivist*innen wahr und verstehen die Rolle nicht, die sie selber einnehmen könnten: 

Eva Kappl: Auch ihre Rolle im Sinne von, dass sie auch selber die Möglichkeit haben, auch Forderungen an die Plattform zu stellen, wenn es Funktionen gibt, die problematisch sind, wenn es Funktionen gibt, die dafür sorgen, dass sie mehr Hate Speech bekommen. Und auch das wäre ein Wunsch für mich, dass auch Creator*innen noch mehr Verständnis von sich selber als wichtigen Akteur*innen bekommen und auch Akteur*innen, die etwas ändern können an dieser Plattform und an dem, was da eigentlich passiert.

Marcus Bösch von der HAW Hamburg verweist darauf, dass TikTok am Ende des Tages, wie jede andere Plattform auch, ein kapitalistisch getriebenes Unternehmen sei. Denn klar, es gibt hier eine Gewinnabsicht, Leute sollen möglichst lange in der App bleiben, damit so möglichst viele Daten gesammelt werden können - schließlich geht es darum, den User*innen Werbung zuzuspielen. Dennoch sieht auch Bösch deutliches Verbesserungspotenzial:  

Marcus Bösch von der HAW Hamburg verweist darauf, dass TikTok am Ende des Tages, wie jede andere Plattform auch, ein kapitalistisch getriebenes Unternehmen sei. Denn klar, es gibt hier eine Gewinnabsicht, Leute sollen möglichst lange in der App bleiben, damit so möglichst viele Daten gesammelt werden können - schließlich geht es darum, den User*innen Werbung zuzuspielen. Dennoch sieht auch Bösch deutliches Verbesserungspotenzial: Marcus Bösch

Marcus Bösch von der HAW Hamburg verweist darauf, dass TikTok am Ende des Tages, wie jede andere Plattform auch, ein kapitalistisch getriebenes Unternehmen sei. Denn klar, es gibt hier eine Gewinnabsicht, Leute sollen möglichst lange in der App bleiben, damit so möglichst viele Daten gesammelt werden können - schließlich geht es darum, den User*innen Werbung zuzuspielen. Dennoch sieht auch Bösch deutliches Verbesserungspotenzial: Was man nichtsdestotrotz mit einfachen Dingen tun könnte wäre, dass man erstens externen Wissenschaftler*innen einfacher und flächendeckender Zugang zu der Plattform gewährleistet, damit diese Plattformen auch quasi transparent und von außen gemonitort und überprüft werden kann. Und dann müsste TikTok natürlich die eigenen, eigentlich recht guten Community-Guidelines schlicht und ergreifend auch umsetzen und daran hapert es. Das würde schon mal helfen, die Plattform zu einem besseren Ort zu machen. Nichtsdestotrotz ist jede Plattform aber natürlich nur so gut wie der Inhalt auf der Plattform und der Inhalt wird wiederum von Nutzerinnen und Nutzern angefertigt. Und der Inhalt, den es auf der Plattform gibt, ist nun mal auch so breit wie das, was Menschen auf diesem Planeten veröffentlichen. Das heißt, letztlich ist es auch wieder an den Nutzerinnen und Nutzern diese Plattform zu nutzen, um ja, sinnvollen, guten, bereichernden Inhalt zu erstellen.

De: hate - ein Podcast der Amadeu Antonio Stiftung.

Konzeption und Umsetzung:   Viola Schmidt

Musik: Jan Möller

Stimme: Viola Schmidt

Über diesen Podcast

Rechte Ideologien haben viele Gesichter und Erscheinungsformen - mal aggressiv mit offener Hetze, mal subtil mit verschleiernder Rhetorik. Immer wieder hören wir, dass es wichtig sei, dem etwas entgegen zu setzen, um den Rechtsextremen keine Chance, keinen Fußbreit zu überlassen. Aber wie? Der dehate-Podcast der Amadeu Antonio Stiftung gibt Antworten. Neben notwendigem Hintergrundwissen und Analysen geht es auch darum, dieses Wissen einzusetzen, um extrem rechten Ideologien im Alltag, online wie offline, etwas entgegenzusetzen. Dazu sprechen wir mit Expert*innen, Engagierten und Betroffenen, um einen Überblick über die Situation und Handlungsmöglichkeiten zu erlangen. Die Ergebnisse hört hier hier, im kurzweiligen Audioformat, für zuhause oder unterwegs. Verpasst keine neue Folge und abonniert den dehate-Podcast!

von und mit Viola Schmidt, Matthias Goedeking, Lars Lichtermann

Abonnieren

Follow us