Kinder können in sozialen Medien mit Hass und Beleidigungen konfrontiert werden. Apps bieten zwar häufig nur eingeschränkte technische Möglichkeiten. Dennoch können Eltern etwas tun, um ihre Kinder vor Mobbing im Netz zu schützen.
„Cybermobbing ist unter Jugendlichen weit verbreitet“, sagt Iren Schulz, Mediencoach der Initiative SCHAU HIN!. „Besonders schlimm für Betroffene ist, dass diese Form des Mobbings weder räumlich noch zeitlich begrenzt ist.
Die Nachrichten und Kommentare verfolgen sie bis nach Hause und auch alte, gelöschte Inhalte können immer wieder auftauchen. Außerdem können die TäterInnen in der Anonymität des Internets verborgen bleiben und geben sich nicht immer zu erkennen. In der Folge fühlen sich die Betroffenen oftmals ohnmächtig, hilflos und allein.“
Um es möglichst nicht so weit kommen zu lassen, wenn Heranwachsende selbstständig in sozialen Netzwerken aktiv sind, können die Einstellungen in den jeweiligen Apps helfen, die Nutzung so privat und sicher wie möglich zu machen. Außerdem verfügen Social-Media-Apps über Blockierfunktionen, mit denen ungewollte Kontakte beendet werden können.
Eltern sollten mit ihren Kindern darüber sprechen und finden eine ausführliche Übersicht zu Einstellungen, Meldesystemen und Datenschutz beliebter Social-Media-Anwendungen auf www.kompass-social.media.
Neben den technischen Möglichkeiten sind Aufklärung und sozialer Rückhalt die wichtigsten Instrumente, um Cybermobbing zu bewältigen: „Besonders wichtig ist die Vertrauensbasis zwischen Eltern und Kindern, die auf Verständnis basiert“, rät Mediencoach Iren Schulz.
Nur so sind die Erwachsenen auch Ansprechpersonen, wenn etwas passiert. Die Expertin rät, frühzeitig mit den Kindern zu sprechen und sie ernst zu nehmen. Kinder, die Opfer von Cybermobbing werden, brauchen Vertrauenspersonen, die sie unterstützen und helfen mit der Situation umzugehen.
Mehr Sicherheit: Einstellungen beliebter Social-Media-Anbieter
TikTok: Durch die Voreinstellungen der App sind Profile nach der Registrierung zunächst für alle sichtbar. Zum Schutz junger NutzerInnen können diese auf „Privat“ gestellt werden. So entsteht mehr Kontrolle darüber, wer die eigenen Beiträge sieht. NutzerInnen unter 16 Jahren können keine privaten Nachrichten senden und empfangen – diese Einschränkung ist von dem bei der Registrierung angegebenen Alter abhängig.
Aktiviert man den Kommentarfilter, werden beleidigende Inhalte unter den geteilten Videos verborgen. Die NutzerInnen können auch nach eigenen Schlüsselworten filtern lassen und die Kommentarfunktion einschränken oder deaktivieren. TikTok hat ein Meldesystem, um unangemessene Videos, NutzerInnen und Kommentare zu melden. Die Löschquote von UserInnenmeldungen liegt laut Jahresbericht 2019 von jugendschutz.net im Bereich Cybermobbing bei 75 Prozent.
Instagram: Bei Instagram ist das Profil bei Neueinrichtung ebenfalls automatisch öffentlich und sollte auf „Privat“ gestellt werden. Zudem können alle UserInnen private Nachrichten schicken – also auch Fremde. Lediglich durch Blockieren kann die Kontaktaufnahme durch einzelne Personen verhindert werden.
Für die Kommentarfunktion können bei Instagram Filter aktiviert werden, die vom Betreiber vorgegebene und selbst hinzugefügte Wörter verbieten und entsprechende Kommentare automatisch verbergen.
Zudem kann die Kommentarfunktion für einzelne Posts und Stories auch ganz ausgeschaltet oder nur für bestimmte Kontakte freigegeben werden. Laut jugendschutz.net-Bericht liegt die Löschquote nach Meldungen bei 73 Prozent.
Snapchat: Snapchat verfügt über altersgerechte Voreinstellungen – das Profil ist automatisch auf privat gestellt, Nachrichten können nur von FreundInnen empfangen werden und auch der Standort ist verborgen. 2018 lag die Löschquote für Cybermobbing nach Meldung von UserInnen bei 100 Prozent so jugendschutz.net im Jahresbericht 2018.