Jeden Tag nutzen Snapchatter rund um die Welt unsere App, um mit ihren engen Freunden zu reden und sich selbst kreativ auszudrücken. Wir haben uns zum Ziel gesetzt, Produkte und Technologie zu entwickeln, die echte Freundschaften in einem gesunden, sicheren und lustigen Umfeld fördern und unterstützen. Wir arbeiten kontinuierlich daran, das, was wir machen, zu verbessern – von unseren Richtlinien und Community-Leitlinien über unsere Tools zur Vorbeugung, Erkennung und Beseitigung von schädlichen Inhalten bis hin zu Initiativen, die zur Ausbildung und Befähigung unserer Community beitragen.

Wir fühlen uns verpflichtet, im Zusammenhang mit der Verbreitung von Inhalten, die gegen unsere Richtlinien verstoßen, mehr Transparenz zu schaffen, wie wir auf Anfragen der Strafverfolgungs- und Regierungsbehörden nach Informationen reagieren und wo wir versuchen wollen, zukünftig mehr Einsicht zu schaffen. Zweimal jährlich veröffentlichen wir Transparenzberichte, um Einblicke in diese Bemühungen zu bieten. Außerdem haben wir uns dazu verpflichtet, diese Berichte umfangreicher und hilfreicher für viele Stakeholder zu machen, die sich intensiv um Online-Sicherheit und -Transparenz kümmern.

Dieser Bericht deckt die zweite Hälfte des Jahres 2020 (1. Juli – 31. Dezember) ab. Wie schon in unseren früheren Berichten auch, enthält er Daten über alle unsere Verstöße global in diesem Zeitraum; die Anzahl der Inhaltsmeldungen, die wir erhalten haben und gegen die wir für bestimmte Kategorien von Verstößen vorgegangen sind; wie wir Anfragen von Strafverfolgungs- und Regierungsbehörden unterstützt und erfüllt haben; und unsere Vollstreckungen, aufgeteilt nach Land.

Im Rahmen unserer andauernden Bemühungen zur Verbesserung der Durchsetzung unserer Sicherheitsmaßnahmen sowie unserer Transparenzberichte selbst, beinhaltet dieser Bericht mehrere neue Elemente:

  • Die Violative View Rate (VVR) (Rate der Ansichten von Inhalten, die gegen unsere Richtlinien verstoßen), die ein besseres Verständnis des Anteils aller Snaps (oder Ansichten) mit Inhalten, die gegen unsere Richtlinien verstießen, bietet;

  • Gesamte Inhalte und geahndete Konten wegen falscher Informationen global – was insbesondere in diesem Zeitraum relevant war, in dem die Welt weiterhin mit einer globalen Pandemie zu kämpfen hatte und mit Anstrengungen, die zivlien und demokratischen Normen zu untergraben; und

  • Anfragen zur Unterstützung von Untersuchungen potenzieller Markenverletzungen.

Wir arbeiten an einer Reihe von Verbesserungen, dank denen wir in zukünftigen Berichten detailliertere Daten bereitstellen können. Das beinhaltet auch die Ausweitung auf Unterkategorien von Datenverstößen. Zurzeit melden wir zum Beispiel Verstöße im Zusammenhang mit regulierten Gütern, wozu unter anderem illegale Drogen und Waffen zählen. Für die Zukunft planen wir, jeden Verstoß in seine eigene Unterkategorie aufzunehmen.

Wenn neue Online-Bedrohungen und Verhaltensweisen auftauchen, werden wir unsere Tools und Taktiken weiter verbessern, um sie zu bekämpfen. Wir bewerten ständig die Risiken und wie wir unsere technologischen Möglichkeiten erweitern können, um unsere Community besser zu schützen. Wir lassen uns regelmäßig von Sicherheitsfachkräften beraten, wie wir kriminellen Tätern immer einen Schritt voraus bleiben können – und wir sind dankbar für unsere wachsende Liste mit Partnern, die uns wertvolles Feedback geben und uns anspornen, immer noch besser zu werden.

Weitere Informationen über unseren Ansatz und unsere Ressourcen in Bezug auf Sicherheit und Datenschutz finden Sie unter der Registerkarte  Über Transparenzberichterstattung unten auf der Seite.

Überblick über Verstöße im Zusammenhang mit Inhalten und Konten

Unsere Community-Richtlinien verbieten schädliche Inhalte, einschließlich Falschinformationen, möglicherweise schädliche Verschwörungstheorien, irreführende Praktiken, illegale Aktivitäten, einschließlich Belästigung und Mobbing; Bedrohungen, Gewalt und Verletzungen, einschließlich der Verherrlichung von Selbstverletzungen; sexuell freizügige Inhalte und sexuelle Ausbeutung von Kindern.

Jeden Tag werden durchschnittlich mehr als 5 Milliarden Snaps mit der Snapchat Kamera aufgenommen. Vom 1. Juli bis zum 31. Dezember 2020 haben wir weltweit 5.543.281 Inhalte verfolgt, die gegen unsere Richtlininen verstießen

Durchsetzungsmaßnahmen können bedeuten, dass beleidigende Inhalte entfernt werden; die Sichtbarkeit des betreffenden Kontos beendet oder eingeschränkt wird; und die Weiterleitung an die Strafverfolgungsbehörden. Wenn ein Konto wegen Verstößen gegen unsere Richtlinien geschlossen wird, darf der Kontoinhaber kein neues Konto anmelden und Snapchat nicht erneut verwenden.

Während des Berichtszeitraums sahen wir eine Violative View Rate (VVR) von 0,08 Prozent, was bedeutet, dass von jeweils 10.000 Ansichten von Inhalten auf Snap acht Inhalte gegen unsere Richtlinien verstießen.

Wir bieten In-App-Tools für die Berichterstellung, mit denen Snapchatter Inhalte schnell und einfach unseren Vertrauens- und Sicherheitsteams melden können, die anschließend den Bericht untersuchen und geeignete Maßnahmen ergreifen. Unsere Teams arbeiten daran, so schnell wie möglich Durchsetzungsmaßnahmen zu ergreifen. In der überwiegenden Anzahl der Fälle werden innerhalb von zwei Stunden nach Erhalt eines In-App-Berichts schon Maßnahmen ergriffen.

Zusätzlich zur In-App-Berichtserstellungunter anderen

bieten wir auch Online-Berichtsoptionen über unsere Supportseite. Außerdem verbessern unsere Teams kontinuierlich die Möglichkeiten, Inhalte, die gegen Richtlinien verstoßen und illegale Inhalte proaktiv zu erkennen, zum Beispiel sexueller Missbrauch von Kindern, Inhalte mit illegalen Drogen oder Waffen oder Drohungen mit Gewalt. Wir erläutern bestimmte Details unserer Arbeit im Kampf gegen sexuelle Ausbeutung und Missbrauch in diesem Bericht.

Wie die Diagramme unten zeigen, erhielten wir in der zweiten Hälfte des Jahres 2020 die meisten In-App-Berichte oder Supportanfragen zu Inhalten mit betrügerischem Auftreten oder sexuell freizügigen Inhalten. Wir konnten die Zeitspanne innerhalb der wir auf Berichte zu Inhalten, die gegen Richtlinien verstoßen, insbesondere für regulierte Güter, unter anderem illegale Drogen, gefälschte Waren und Waffen, sexuell freizügige Inhalte sowie Belästigung und Mobbing, beträchtlich verkürzen.

Gesamt: Meldungen von Inhalten

Gesamt: Inhalte, gegen die Maßnahmen ergriffen wurden

Gesamt: Einzelne Konten, gegen die Maßnahmen ergriffen wurden

10.131.891

5.543.281

2.100.124

Grund

Meldungen von Inhalten*

Geahndete Verstöße

% der gesamten Inhalte

Abgemahnte Konten

Bearbeitungszeit**

Sexuell freizügige Inhalte

5.839.778

4.306.589

77,7 %

1.316.484

0.01

Regulierte Güter

523.390

427.272

7,7 %

209.230

0.01

Bedrohung/Gewalt/Verletzung

882.737

337.710

6,1 %

232.705

0.49

Belästigung und Mobbing

723.784

238.997

4,3 %

182.414

0.75

Spam

387.604

132.134

2,4 %

75.421

0.21

Hassrede

222.263

77.587

1,4 %

61.912

0.66

Betrügerisches Auftreten

1.552.335

22.992

0,4 %

21.958

0.33

Die Meldungen von Inhalten beziehen sich auf über die App und über Supportanfragen gemeldete mutmaßliche Verstöße.

**Bearbeitungszeit zeigt in Stunden, wie lange es durchschnittlich dauert, bis Maßnahmen bezüglich der Meldung eines Benutzers ergriffen werden.

Erweiterte Verstöße

Verbreitung von Falschinformationen bekämpfen

Wir waren schon immer der Meinung, dass es nicht ausreicht, im Zusammenhang mit schädlichen Inhalten nur an Richtlinien und Durchsetzung zu denken – Plattformen müssen auch über ihre fundamentale Architektur und ihr Produktdesign nachdenken. Snapchat war von Anfang an anders aufgebaut als die Plattformen der anderen sozialen Medien, um unseren primären Anwendungsfall – sich mit engen Freunden unterhalten – zu unterstützen, anstelle eines offenen Newsfeeds, bei dem jede und jeder das Recht hat, ohne Moderation irgendetwas an irgendjemanden zu senden.

Wie wir in unserer Einführung erklären, verbieten unsere Richtlinien eindeutig die Verbreitung von Falschinformationen, die Schäden verursachen könnten, einschließlich Desinformation, mit dem Ziel, zivile Prozesse zu untergraben, beispielsweise Wählerbeeinflussung, nicht bewiesene medizinische Heilsversprechen und Verschwörungstheorien, wie etwa das Verleugnen tragischer Ereignisse. Unsere Richtlinien gelten konsequent für alle Snapchatter – wir haben keine besonderen Ausnahmen für Politiker oder Personen öffentlichen Interesses.

Snapchat beschränkt die Viralität, was die Anreize für schädliche und sensationslüsterne Inhalte entfernt, in unserer gesamten Anwendung und begrenzt damit Bedenken im Zusammenhang mit der Verteilung schlechter Inhalte. Wir haben keinen offenen Newsfeed und wir geben ungeprüften Inhalten keine Chance, „viral zu gehen“. Unsere Inhalte-Plattform Discover verfügt nur über Inhalte von geprüften Medienverlagen und Inhaltserstellern.

Im November 2020 haben wir unsere neue Unterhaltungsplattform Spotlight eingeführt und moderieren proaktiv Inhalte, um sicherzustellen, dass unsere Richtlinien eingehalten werden, bevor ein großes Publikum erreicht wird.

Auch bei politischer Werbung verfolgen wir seit langem einen anderen Ansatz. Wie bei allen Inhalten auf Snapchat Werbung, mit er auf ein bestimmtes Problem aufmerksam gemacht wird sowie Problemwerbung, verbieten wir Falschinformationen und irreführende Praktiken in der Werbung auf unserer Plattform. Sämtliche politische Werbung, einschließlich Werbung im Zusammenhang mit Wahlen, Werbung, mit er auf ein bestimmtes Problem aufmerksam gemacht wird sowie Problemwerbung, müssen eine transparente Mitteilung „bezahlt“ aufweisen, mit der die sponsernde Organisation veröffentlicht wird. Bei uns machen "echte" Menschen einen Faktencheck für alle politischen Anzeigen und stellen Informationen über jegliche Werbung, die unsere Überprüfungen bestanden hat, in unserer Bibliothek zu politischer Werbung zur Verfügung.

Dieser Ansatz ist nicht perfekt, aber er hat uns geholfen, Snapchat vor dem dramatischen Anstieg von Falschinformationen in den letzten Jahren zu schützen, ein Trend, der in einem Zeitraum besonders relevant war, in dem Falschinformationen über COVID-19 und die US-Präsidentschaftswahlen 2020 viele Plattformen überschwemmten.

In diesem Zeitraum hat Snapchat gegen 5.841 Inhalte und Konten auf Verstöße gegen unsere Richtlinien bezüglich Falschinformationen ermittelt. In zukünftigen Berichten wollen wir detailliertere Aufschlüsselungen von Verstößen im Zusammenhang mit Falschinformationen bereitstellen.

Angesichts der gestiegenen Bedenken in Bezug auf die Bemühungen, den Zugang zu Wahlen und die Wahlergebnisse in den USA im Sommer 2020 zu unterminieren, haben wir eine interne Task Force gebildet, die sich auf die Bewertung jeglicher potenzieller Risiken oder Vektoren für Missbrauch unserer Plattform konzentriert. Wir haben alle Entwicklungen überwacht und daran gearbeitet, sicherzustellen, dass Snapchat eine Quelle für den Tatsachen entsprechende Nachrichten und Informationen bleiben wird. Diese Bemühungen sahen wie folgt aus:

  • Wir aktualisierten unserer Community-Richtlinien, indem wir manipulierende Medien für irreführende Zwecke, zum Beispiel Deepfakes, unseren Kategorien verbotener Inhalte hinzufügten;

  • Mit unseren Discover-Verlagspartnern arbeiten wir daran, sicherzustellen, dass Verleger nicht durch Nachrichtenverbreitung unbeabsichtigt Falschinformationen verstärken;

  • Wir bitten Snap Stars, deren Inhalte auch auf unserer Inhalteplattform Discover erscheinen, sicherzustellen, dass ihre Inhalte nicht gegen unsere Community-Richtlinien verstoßen und nicht unbeabsichtigt Falschinformationen verbreiten.

  • Wir schaffen klare Konsequenzen für jegliche gegen Richtlinien verstoßende Inhalte – statt Inhalte zu kennzeichnen, haben wir sie einfach entfernt und damit unmittelbar verhindert, dass sie noch weiter verbreitet werden konnten; und

  • Wir analysieren Unternehmen und andere Quellen für Falschinformationen, die verwendet werden könnten, um solche Informationen auf Snapchat zu verbreiten, proaktiv, um Risiken zu bewerten und vorbeugende Maßnahmen zu ergreifen.

Während der gesamten COVID-19-Pandemie haben wir einen ähnlichen Ansatz verfolgt, um auf Tatsachen beruhende Nachrichten und Informationen zur Verfügung zu stellen, unter anderem durch die Berichterstattung unserer Discover-Verlagspartner, durch PSAs sowie Fragen und Antworten mit Vertretern der Gesundheitsbehörden und medizinischen Fachkräften, und durch kreative Tools, wie zum Beispiel Linsen und Filter für Augmented-Reality-Anwendungen, die Snapchatter an Anleitung durch Fachkräfte im Gesundheitswesen erinnerten.

Inhalte und Accounts insgesamt

5.841

Sexuelle Ausbeutung und Missbrauch Minderjähriger bekämpfen

Die Ausbeutung eines Mitglieds unserer Community, insbesondere junger Menschen und Minderjähriger, ist illegal, nicht akzeptierbar und durch unsere Richtlinien verboten. Das Verhindern, Erkennen und Eliminieren von Missbrauch auf unserer Plattform hat für uns höchste Priorität und wir werden unsere Möglichkeiten bei der Bekämpfung von Material im Zusammenhang mit dem sexuellen Missbrauch von Kindern und andere Arten von ausbeuterischen Inhalten kontinuierlich weiterentwickeln.

Unsere Vertrauens- und Sicherheitsteams nutzen proaktive Erkennungstools, wie zum Beispiel PhotoDNA-Technologie, um bekannte Bilder im Zusammenhang mit dem sexuellen Missbrauch von Kindern zu identifizieren und dem Nationalen Zentrum für vermisste und ausgebeutete Kinder (National Center for Missing and Exploited Children – NCMEC) zu melden. Wenn wir Beispiele von sexuellem Missbrauch von Kindern proaktiv erkennen oder identifizieren, werden wir diese speichern und dem NCMEC melden. Dort werden die Vorfälle überprüft und mit den Strafverfolgungsbehörden koordiniert.

In der zweiten Hälfte des Jahres 2020 enthielten 2,99 Prozent der gesamten Konten, gegen die wir global Vollstreckungsmaßnahmen aufgrund von Verstößen gegen unsere Community-Richtlinien einleiteten, Material im Zusammenhang mit dem sexuellen Missbrauch von Kindern. Davon haben wir 73 Prozent der Inhalte proaktiv erkannt und Maßnahmen ergriffen. Insgesamt haben wir 47.550 Konten aufgrund von Verstößen mit Material im Zusammenhang mit dem sexuellen Missbrauch von Kindern gelöscht und jeden einzelnen Fall dem NCMEC gemeldet. 

In diesem Zeitraum haben wir eine Reihe von Schritten unternommen, um Material im Zusammenhang mit dem sexuellen Missbrauch von Kindern weiter zu bekämpfen. Wir haben die Technologie Child Sexual Abuse Imagery (CSAI) von Google für Videos übernommen, mit der wir Videos mit Material im Zusammenhang mit dem sexuellen Missbrauch von Kindern identifizieren können, um es an das NCMEC zu melden. In Kombination mit unserer PhotoDNA-Erkennung für bekannte Bilder mit Material im Zusammenhang mit dem sexuellen Missbrauch von Kindern und Hash-Datenbanken können wir nun bekannte Video- und Fotoinhalte proaktiv erkennen und den Behörden melden. Dank dieser erweiterten Möglichkeit können wir bei der Erkennung – und in der Folge auch beim Melden dieses kriminellen Verhaltens – viel effizienter werden.

Zusätzlich haben wir unsere Partnerschaften mit Fachkräften der Branche ausgebaut und zusätzliche In-App-Funktionen eingeführt, um Snapchatter über die Risiken von Kontakten mit Fremden aufzuklären und wie die In-App-Berichtsfunktion verwendet werden kann, um unsere Vertrauens- und Sicherheitsteams bei jedem Fall eines solchen Missbrauchs zu alarmieren. Wir haben unserem bewährten Flaggerprogramm neue Partner hinzugefügt, mit dem einem vertraulichen Kanal geprüfte Sicherheitsfachkräfte zur Verfügung gestellt werden, um Notfalleskalationen, wie zum Beispiel eine unmittelbar bevorstehende Bedrohung für Leib und Leben oder ein Fall mit Material im Zusammenhang mit dem sexuellen Missbrauch von Kindern, zu ermöglichen. Außerdem arbeiten wir eng mit diesen Partnern zusammen, um Sicherheitsausbildung, Wellness-Ressourcen und anderen Berichtssupport bereitzustellen, sodass sie die Snapchat-Community effektiv unterstützen können.

Darüber hinaus sind wir im Board of Directors der Technology Coalition, einer Gruppe mit führenden Vertretern der Technikbranche, die sich für die Verhinderung und Auslöschung von sexueller Ausbeutung und Missbrauch von Kindern im Internet engagieren. Sie arbeiten kontinuierlich mit anderen Plattformen und Sicherheitsfachkräften zusammen, um weitere Lösungen zu erkunden, um unsere gemeinsamen Anstrengungen in diesem Bereich zu stärken.

Insgesamt gelöschte Konten

47.550

Terroristische und extremistische Inhalte

Bei Snap war die Überwachung der Entwicklungen in diesem Bereich und die Entschärfung potenzieller Vektoren für Missbrauch auf unserer Plattform ein Teil der Arbeit unserer US-Wahl-Integritäts-Task-Force. Sowohl unsere Produktarchitektur als auch das Design unserer Gruppenchat-Funktionalität beschränken die Verbreitung schädlicher Inhalte und Möglichkeiten, sich zu organisieren. Wir bieten Gruppen-Chats, deren Größe aber auf mehrere Dutzend Mitglieder beschränkt ist, die nicht durch Algorithmen empfohlen werden und auf unserer Plattform nicht erkannt werden können, wenn man kein Mitglied dieser Gruppe ist 

In der zweiten Hälfte des Jahres 2020 haben wir acht Konten aufgrund von Verstößen gegen unser Verbot von Terrorismus, Hassbeiträgen und extremistischen Inhalten entfernt.

Insgesamt gelöschte Konten

8

Länderübersicht

Dieser Abschnitt gibt einen Überblick über die Durchsetzung unserer Regeln in einer Auswahl von einzelnen Ländern. Unsere Community-Richtlinien gelten für alle Inhalte auf Snapchat – und für alle Snapchatter – rund um den Globus, unabhängig vom Standort.

Informationen für alle anderen Länder stehen über die angehängte CSV-Datei zum Herunterladen zur Verfügung.

Region

Gemeldete Inhalte*

Geahndete Verstöße

Einzelne Konten, gegen die Maßnahmen ergriffen wurden

Nordamerika

4.230.320

2.538.416

928.980

Europa

2.634.878

1.417.649

535.649

Rest der Welt

3.266.693

1.587.216

431.407

Gesamt

10.131.891

5.543.281

1.896.015