Transparenzbericht
1. Januar 2020 – 30. Juni 2020
Veröffentlicht: 18. Dezember 2020
Aktualisiert: 18. Dezember 2020
Wir bei Snap möchten Menschen die Möglichkeit geben, sich frei auszudrücken, im Moment zu leben, mehr über die Welt zu erfahren und gemeinsam Spaß zu haben. Das Wohlergehen unserer Community liegt uns sehr am Herzen. Wenn wir Produkte entwickeln, berücksichtigen wir den Schutz der Privatsphäre und die Sicherheit von Snapchattern am Front-End des Designprozesses.
Wir haben klare und umfassende Richtlinien, die unsere Mission unterstützen: Wir fördern ein möglichst breites Spektrum der Selbstdarstellung und ermutigen Snapchatter gleichzeitig, unsere Dienste jeden Tag sicher zu nutzen. Unsere Community-Richtlinien untersagen die Verbreitung falscher Informationen, die Schaden verursachen können, Hassreden, Mobbing, Belästigung, illegale Aktivitäten, eindeutig sexuelle Inhalte, Gewaltdarstellung und vieles mehr.
Unser Transparenzbericht bietet wichtige Einblicke in die verletzenden Inhalte, gegen die wir vorgehen, in staatliche Anfragen zu den Account-Informationen von Snapchattern und in andere rechtliche Mitteilungen.
Weitere Informationen über unseren Ansatz und zu den Ressourcen für Sicherheit und Datenschutz findest du auf unserem Reiter Über Transparenzberichterstattung am Ende der Seite.
Konten-/Inhaltsverstöße
Jeden Tag werden mit unserer Kamera mehr als vier Milliarden Snaps aufgenommen. Vom 1. Januar 2020 bis zum 30. Juni 2020 sind wir weltweit gegen 3.872.218 Inhaltsteile vorgegangen, die gegen unsere Community-Richtlinien verstoßen haben – das sind weniger als 0,012 % der gesamten Story-Posts. Unsere Teams ergreifen in der Regel schnell Maßnahmen gegen solche Verstöße, sei es, um Snaps zu entfernen, Accounts zu löschen, Informationen an das National Center for Missing & Exploited Children (NCMEC) – das Nationale Zentrum für vermisste und ausgebeutete Kinder – zu melden oder an die Strafverfolgungsbehörden weiterzuleiten. In der überwiegenden Mehrheit der Fälle ahnden wir Verstöße innerhalb von 2 Stunden nach Eingang der Meldung aus der App.
Insgesamt gemeldete Inhalte | Summe der geahndeten Verstöße | Summe der abgemahnten Konten |
---|---|---|
13.204.971 | 3.872.218 | 1.692.859 |
H1'20: Inhalte, gegen die Maßnahmen ergriffen wurden

Kategorie | Grund | Gemeldete Inhalte | Geahndete Verstöße | Abgemahnte Konten | Bearbeitungszeit |
---|---|---|---|---|---|
1 | Belästigung und Mobbing | 857.493 | 175.815 | 145.445 | 0,4 |
2 | Hassbotschaften | 229.375 | 31.041 | 26.857 | 0,6 |
3 | Angabe einer falschen Identität | 1.459.467 | 22.435 | 21.510 | 0,1 |
4 | Regulierte Güter | 520.426 | 234.527 | 137.721 | 0,3 |
5 | Sexuell freizügige Inhalte | 8.522.585 | 3.119.948 | 1.160.881 | 0,2 |
6 | Spam | 552.733 | 104.523 | 59.131 | 0,2 |
7 | Bedrohung/Gewalt/Verletzung | 1.062.892 | 183.929 | 141.314 | 0,5 |
Die Meldungen von Inhalten beziehen sich auf über die App und über Supportanfragen gemeldete mutmaßliche Verstöße.
**Bearbeitungszeit zeigt in Stunden, wie lange es durchschnittlich dauert, bis Maßnahmen bezüglich der Meldung eines Benutzers ergriffen werden.
Erweiterte Verstöße
Sexuelle Ausbeutung Minderjähriger und Missbrauch
Der Missbrauch von Mitgliedern unserer Community, insbesondere von Minderjährigen, wird in keiner Weise geduldet und ist auf Snapchat verboten. Die Verhinderung, Erkennung und Beseitigung von Missbrauch auf unserer Plattform hat für uns Priorität, und wir verbessern ständig unsere Möglichkeiten zur Bekämpfung dieser Art von illegaler Tätigkeit.
Meldungen von Material zu sexuellem Kindesmissbrauch (CSAM – Child Sexual Abuse Materials) werden von unserem Team für Vertrauen und Sicherheit schnell geprüft. Beweise für diese Aktivität führen zur Account-Kündigung und zur Anzeige an das National Center for Missing & Exploited Children (NCMEC). Wir unterstützen rund um die Uhr internationale Strafverfolgungsbehörden, die sich an uns wenden, wenn sie Hilfe bei Fällen vermisster oder gefährdeter Jugendlicher benötigen.
Wir verwenden die PhotoDNA-Technologie, um das Hochladen bekannt gewordener Bilder von sexueller Ausbeutung und sexuellem Missbrauch von Kindern proaktiv zu identifizieren und zu melden. Alle Vorfälle melden wir den Behörden. 2,99 % der Konten, gegen die wegen Verstößen gegen Community-Richtlinien Maßnahmen ergriffen wurden, wurden aufgrund von CSAM-Inhalten gelöscht.
Darüber hinaus hat Snap 70 % davon proaktiv gelöscht.
Insgesamt gelöschte Konten | 47.136 |
---|
Terrorismus
Terrororganisationen und von Hass getriebene Gruppierungen dürfen unsere Plattform nicht nutzen und wir verfolgen einen Null-Toleranz-Ansatz bei Inhalten, die gewalttätigen Extremismus oder Terrorismus befürworten oder fördern.
Insgesamt gelöschte Konten | <10 |
---|
Länderübersicht
Dieser Abschnitt gibt einen Überblick über die Durchsetzung unserer Regeln in einer Auswahl von einzelnen Ländern. Unsere Community-Richtlinien gelten für alle Inhalte auf Snapchat – und für alle Snapchatter – rund um den Globus, unabhängig vom Standort.
Informationen für alle anderen Länder stehen in der beigefügten CSV-Datei zum Herunterladen zur Verfügung.
Region | Gemeldete Inhalte | Geahndete Verstöße | Abgemahnte Konten |
---|---|---|---|
Nordamerika | 5.769.636 | 1.804.770 | 785.315 |
Europa | 3.419.235 | 960.761 | 386.728 |
Rest der Welt | 4.016.100 | 1.106.687 | 413.272 |
Gesamt | 13.204.971 | 3.872.218 | 1.578.985 |
PDF + CSV herunterladen
Direkte Downloads für:
Archivierte Transparenzberichte
- 1. Juli 2021 - 31. Dezember 2021
- 1. Januar 2021 - 30. Juni 2021
- 1. Juli 2020 - 31. Dezember 2020
- 1. Januar 2020 - 30. Juni 2020
- 1. Juli 2019 - 31. Dezember 2019
- 1. Januar 2019 - 30. Juni 2019
- 1. Juli 2018 - 31. Dezember 2018
- 1. Januar 2018 - 30. Juni 2018
- 1. Juli 2017 - 31. Dezember 2017
- 1. Januar 2017 - 30. Juni 2017
- 1. Juli 2016 - 31. Dezember 2016
- 1. Januar 2016 - 30. Juni 2016
- 1. Juli 2015 - 31. Dezember 2015
- 1. Januar 2015 - 30. Juni 2015
- 1. November 2014 - 28. Februar 2015