Auf Tiktok werden längst nicht nur Sing- und Tanzvideos gepostet, sondern Content aus allen denkbaren
Nischen. So bietet Tiktok verschiedenen Menschen eine Community, ist aber auch wichtig für die
Kommunikation zu gesellschaftlichen und politischen Themen. Obwohl die Plattform so eine wichtige Rolle einnimmt, bleibt die Funktionsweise intransparent: Wie genau funktioniert der Vorschlags-Algorithmus der Plattform? Wie konsequent geht TikTok gegen Inhalte vor, die gegen die Plattformregeln verstoßen? Gibt es Nischen aus unerwünschtem Content, in die Nutzer:innen hineingezogen werden? Auf kaum eine dieser Fragen gibt es bisher umfängliche Antworten. Auf diesem Panel stellen gleich zwei Teams ihre Recherchen vor.
Um TikTok systematisch zu untersuchen, hat sich das BR Datenteam mit dem US-amerikanischen Algorithmic Transparency Institute zusammengetan. Herausgekommen ist dabei die Recherche "Wie Nutzer:innen in ein Rabbit Hole aus Videos zum Thema Selbstverletzung und Suizid gezogen werden" (VÖ im April 2022). Dabei wird gezeigt, mit welcher Methodik das Projekt entstanden ist, welche Probleme dem Team begegnet sind, welche technischen Lösungen verwendet wurden und wie die Ergebnisse einzuordnen sind.
Ein Team von NDR, WDR und tagesschau hat im März 2022 veröffentlicht, dass TikTok Kommentare auf der
Plattform mit Hilfe von Wortfiltern zurückhält. Mindestens 19 Wörter sorgten dafür, dass Kommentare nur den
Verfasser:innen, aber nicht für andere Nutzer:innen angezeigt werden. Zu den Schlagwörtern zählten
"Auschwitz", "Peng Shuai", "LGBTQ", "queer" oder "schwul". TikTok hat auf Anfrage zugegeben, solche
Wortfilter einzusetzen und räumt Fehler ein. Auf ihrem Panel berichten die Reporter:innen über ihren
Rechercheweg, den Umgang mit der Plattform TikTok und geben Tipps, wie Kolleg:innen bei ähnlichen
Recherchen vorgehen können.
Links: