TikTok macht marginalisierte Menschen unsichtbar(er)

Die Plattform wollte "verwundbare" Nutzer*innen schützen und schränkte deshalb die Reichweite von queeren Menschen und Menschen mit Behinderung ein. Diese diskriminierende Strategie wird nun kritisiert.

Tik Tok

TikTok, das Portal, auf dem lustige Musikvideos und anderen Videoclips mit Lippensynchronisation, geteilt werden können, steht unter Kritik. Grund sind Vorwürfe, die von jemandem erhoben werden, der *die "Einblick in die Moderationsstrukturen und die Policy hat". Das berichtet aktuell die Plattform netzpolitik.org.

Diskriminierende Moderationsregeln?

Ebendiese Einblicke sollen nämlich zeigen, mit welchen Moderationsregeln die Plattform versucht, gegen Mobbing vorzugehen: TikTok wollen nämlich "verwundbare" User*innen schützen, indem Postings von Nutzer*innen, die als solche eingestuft werden, schlicht unsichtbar gemacht werden. Videos von Menschen mit Behinderungen wurden einfach versteckt, auch queeren oder dicken Nutzer*innen wurde die Reichweite eingeschränkt.

Marginalisierte Personen als "Risk"

Der Einblick in die Moderationsstrukturen zeige laut netzpolitik.org, dass die Plattform ihre Moderator*innen angewiesen hatte, Videos von marginalisierten Menschen entsprechend zu markieren: Videos von Personen mit Behinderung, User*innen aus der LGBTIQ+-Community und dicke Menschen sollten mit "Risk 4" gekennzeichnet werden. Dadurch wird die Reichweite der Beiträge massiv eingeschränkt und die Videos nur noch bei Nutzer*innen aus demselben Land ausgespielt. Bei Personen, deren Mobbing-Risiko ganz besonders hoch eingeschätzt wird, wurde das auf die Markierung "Auto R" ausgeweitet – das bedeutet, dass die Beiträge gar nicht im algorithmisch erstellen Newsfeed landen.

Shadow Banning als billige Lösung

Das ist ein klassisches Beispiel von sogenanntem Shadow Banning – also, dass Postings von Personen zwar nicht gelöscht, aber versteckt, quasi "in den Schatten gerückt" werden. Die Fotobloggingplattform Instagram handhabt etwa Fotos von Narben auf ähnliche Art und Weise (>>> wir berichteten hier und hier).

Kritik an diskriminierenden Moderationsstrukturen

Kritik an Shadow Banning gibt es schon seit geraumer Zeit, die Kernaussage ist dabei immer eine ähnliche: Soziale Medien sollten doch eigentlich Menschen, die bisher kaum eine Stimme hatten, eine Stimme geben. Langfristige Lösungen gegen Hass im Netz sollten daher sein, marginalisierte Personen sichtbar zu machen, die Gesellschaft (auch) online pluraler gestallten und marginalisierte Menschen gegen Hass zu schützen. "Genau den Videos, für die eine große Reichweite wichtig wäre, wurde diese damit versagt", formuliert Mareice Kaiser in einem Kommentar auf ze.tt etwa treffend.

Keine "langfristige Lösung"

Die Anweisung für die Moderator*innen, "verwundbare" Nutzer*innen zu markieren, sei direkt aus der Unternehmenszentrale in China gekommen, schreibt netzpolitik.org. Als Beispiele werden in den Richtlinien "Autismus", "Downsyndrom" und "entstelltes Gesicht" genannt. Mitarbeiter*innen hätten Kritik an dieser Vorgehensweise geübt, seien jedoch nicht gehört worden. Mittlerweile wurde die Kritik im öffentlichen Raum allerdings lauter – und TikTok scheint die Meinung geändert zu haben. Man habe die Methodik nur anfangs gewählt, um Mobbing entgegenzuwirken, als "langfristige Lösung" sei sie aber nicht gedacht gewesen. Dem sei man sich klar geworden, weswegen TikTok nach eigenen Angaben mittlerweile nicht mehr so vorgehe, wie DerStandard berichtet.

 

Aktuell