Warum Eltern über TikTok Bescheid wissen sollten (Der Algorithmus von TikTok ist schuld-Part 2)

In meinem Beitrag „Der Algorithmus von TikTok ist schuld“ habe ich schon geschrieben, warum ich finde, dass TikTok für Kinder und Jugendliche gefährlich ist. Dabei bin ich selbst sehr häufig auf dieser Plattform unterwegs und finde, dass es dort tolle Creators gibt und ich – durch meinen Algorithmus- auch interessante Dinge erfahre. Die Meinung, dass TikTok gefährlich sein kann, vertrete ich noch nicht so lange. Eigentlich ist es durch einen Zufall passiert: ich habe über den Browser am Computer in TikTok reingeschaut und war entsetzt, welche Videos abgespielt wurden. Ich war nicht angemeldet und habe direkt in den ersten Videos sexualisierte Inhalte gezeigt bekommen.

Da das schon eine Weile her ist, habe ich den Test heute noch einmal gemacht. Direkt im 1. Video geht es um den Bodycount (also mit wie vielen Menschen man Sex hatte) und das entsprechende Vokabular. Das 7. Video ist von domiankocht und darin spricht jemand am Telefon darüber, dass er sich zuhause Sklaven hält. Auf diese Inhalte kann jeder zugreifen.

Hier einige Links zu YouTube-Videos, die das Thema behandeln

https://www.youtube.com/watch?v=hkZSdM9SNys&rco=1

Beschreibung: TikTok weiß, wer du bist. Der Algorithmus, der darüber entscheidet, welche Videos dir auf TikTok vorgeschlagen werden, erkennt genau, was du magst, was du hasst und was du mögen könntest. Wenn man sich Videos eines bestimmten Themas häufig anschaut, landet man auf TikTok schnell in einer entsprechende Bubble. Doch das kann bei gewissen Inhalten gefährlich sein. Eine der gefährlichsten Bubbles: SadTok. Wie schnell es wohl geht, dort zu landen? Sarah hat ein Experiment gemacht und sich an den dunkelsten Ort von TikTok begeben, damit du es nicht musst.

https://www.youtube.com/watch?v=0q8_xbfp7yE&t=609s

Beschreibung: Auf TikTok gibt es unzählige Videos, die Depressionen und selbstverletzendes Verhalten thematisieren oder sogar zeigen. Laut Community Guideline der Video-Plattform sind solche Inhalte streng verboten. Doch der TikTok-Algorithmus soll die gefährlichen Inhalte sogar extrem pushen. Ariane Alter macht zusammen mit BR Data, dem datenjournalistischen Team des Bayerischen Rundfunks, das Experiment: Einen Tag lang schaut sie sich traurigen Content auf TikTok an. Sorgt der Tiktok-Algorithmus tatsächlich dafür, dass Ari in ein dunkles Loch aus düsteren Inhalten abrutscht? Was machen die massiv traurigen Inhalte psychisch mit Ari? Psychotherapeutin Anke Glaßmeyer ordnet ein, wie solche Videos uns beeinflussen und wir treffen Svenja, die jahrelang unter Depressionen gelitten hat. Sie erzählt, was solche Videos in ihr bis heute auslösen.

https://zdfheute-stories-scroll.zdf.de/tiktok-videos-sexualisiert/index.html

Beschreibung: Tiktok ist für Kinder und Jugendliche eines der wichtigsten sozialen Netzwerke. Doch was sehen Minderjährige auf der Plattform?

Für ein Experiment haben Studierende der TU Dortmund in Zusammenarbeit mit ZDFheute 40 Tiktok-Profile angelegt und insgesamt 3.000 Videos analysiert. Die Recherche zeigt, dass Kinder neben harmlosen Tanz- und Tiervideos auch problematische Inhalte sehen, darunter Videos, die eindeutig sexualisiert sind und fragwürdige Stereotype, Rollen- und Körperbilder vermitteln können – in einem Alter, in dem viele ihre eigene Sexualität entdecken.

https://www.zdf.de/nachrichten/panorama/tiktok-eltern-kind-tipps-schutz-100.html

Ähnliche Beiträge

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

* Ich habe die Datenschutzerklärung gelesen und akzeptiert.