Naarmate Snapchat groeit, is ons doel om het mogelijk te maken dat mensen zichzelf kunnen uiten, in het moment kunnen leven, over de wereld kunnen leren en samen plezier kunnen hebben - en dat allemaal in een veilige omgeving. Om dat te doen, verbeteren we voortdurend onze veiligheidsprivacy en -praktijken, waaronder onze Servicevoorwaarden en Communityrichtlijnen; tools voor het voorkomen van, het detecteren van en het handhaven tegen schadelijke inhoud; en initiatieven die onze community helpen om informatie te verkrijgen en te versterken.
Om inzicht te geven in deze inspanningen en de aard en het volume van de inhoud die op ons platform wordt gemeld, publiceren we transparantieverslagen twee keer per jaar. We streven er naar om deze rapporten uitgebreider en nuttiger te maken voor de vele belanghebbenden die groot belang hechten aan online veiligheid en transparantie.
Deze rapporten bestrijken de tweede helft van 2021 (1 juli - 31 december). Net als bij onze eerdere rapporten delen ze gegevens over het wereldwijde aantal in-app-inhoud en rapporten op accountniveau die we hebben ontvangen en waartegen we maatregelen treffen met betrekking tot schendingen van specifieke categorieën; hoe we hebben gereageerd op verzoeken van wetshandhavers en overheden; en onze maatregelen uitgesplitst per land. Het bevat ook recente toevoegingen aan dit rapport, waaronder de Violative View Rate van Snapchat-inhoud, mogelijke handelsmerkschendingen en gevallen van valse informatie op het platform.
Als onderdeel van onze voortdurende focus op het verbeteren van onze transparantierapporten, introduceren we verschillende nieuwe elementen in dit rapport. Voor deze deelaflevering en in de toekomst zullen we drugs, wapens en gereguleerde goederen opsplitsen in een eigen categorie, die aanvullende details zullen geven over hun prevalentie en onze maatregelen.
Voor het eerst hebben we ook een nieuwe categorie doorgevoerd voor het melden van zelfmoord en zelfbeschadiging om inzicht te geven in de totale inhoud en accountrapporten die we ontvangen en waartegen we maatregelen treffen. Als onderdeel van onze inzet om het welzijn van onze gemeenschap te ondersteunen, delen onze Trust and Safety-teams in-app-bronnen met Snapchatters in nood, en we delen hier ook meer details over dat werk.
Lees onze recente blog over veiligheid en impact over dit transparantieverslag voor meer informatie over ons beleid ter bestrijding van online schade en onze plannen om door te gaan met onze verslaglegging.
Ga onder aan de pagina naar ons tabblad Over transparantieverslagen voor aanvullende bronnen over veiligheid en privacy.
Van 1 juli tot 31 december 2021 hebben we wereldwijd 6.257.122 stukken content verwijderd die onze richtlijnen hebben geschonden. Handhavingsacties kunnen het verwijderen van de aanstootgevende inhoud omvatten of het beëindigen van het betreffende account.
Tijdens de rapportageperiode zagen we een Violative View Rate (VVR) van 0,08 procent, wat betekent dat van elke 10.000 weergaven van content op Snap en Story views op Snapchat, er acht content bevatten die in strijd was met onze richtlijnen.
Totaal aantal inhouds- en accountsverslagen
Totale inhoud bestraft
Totaal aantal unieke accounts bestraft
12.892.617
6.257.122
2.704.771
Reden
Inhouds- en accountsverslagen
Afgedwongen inhoud
% van Totale inhoud
Unieke afgedwongen accounts
Mediane omlooptijd (minuten)
Seksueel expliciete inhoud
7.605.480
4.869.272
77,8%
1.716.547
<1
Drugs
805.057
428.311
6,8%
278.304
10
Intimidatie en pesten
98.442
346.624
5,5%
274.395
12
Bedreigingen en geweld
678.192
232.565
3,7%
159.214
12
Spam
463.680
153.621
2,5%
110.102
4
Haatdragende taal
200.632
93.341
1,5%
63.767
12
Overige gereglementeerde goederen
56.505
38.860
0,6%
26.736
6
Zelfverwondingen en zelfmoord
164.571
33.063
0,5%
29.222
12
Imitatie
1.863.313
32.749
0,5%
25.174
<1
Wapens
66.745
28.706
0,5%
21.310
8
Seksuele uitbuiting van een lid van onze community, met name minderjarigen, is illegaal, onaanvaardbaar en verboden door onze Communityrichtlijnen. Het voorkomen, opsporen en uitroeien van materiaal met seksueel misbruik van kinderen (CSAM) op ons platform is een topprioriteit voor ons. We ontwikkelen voortdurend onze mogelijkheden voor het bestrijden van CSAM en andere soorten inhoud gerelateerd aan seksuele uitbuiting van kinderen.
Onze teams voor Vertrouwen en Veiligheiden maken gebruik van actieve technologische detectiemiddelen, zoals PhotoDNA, robust hash-matching en Google's Child Sexual Abuse Imagery (CSAI) Match om bekende illegale beelden en video's van CSAM te identificeren en deze te melden bij het Amerikaanse National Center for Missing and Exploited Children (NCMEC), zoals wettelijk verplicht is. Het NCMEC coördineert vervolgens, indien nodig, met de nationale of internationale rechtshandhaving.
In de tweede helft van 2021 hebben we hier 88 procent van de totaal gerapporteerde CSAM proactief gedetecteerd en gemeld.
Totaal aantal accountverwijderingen
198.109
Wij zijn er altijd van overtuigd geweest dat het bij schadelijke inhoud niet voldoende is om na te denken over beleid en handhaving. Platforms moeten ook nadenken over hun fundamentele architectuur en productontwerp. Snapchat is vanaf het begin anders opgebouwd dan traditionele sociale mediaplatforms, zonder een open nieuwsfeed waarin iedereen zonder moderatie kan uitzenden naar een groot publiek.
Onze richtlijnen verbieden duidelijk de verspreiding van valse informatie die schade zou kunnen veroorzaken, inclusief valse informatie die bedoeld is om maatschappelijke processen te ondermijnen; ongefundeerde medische claims; en de ontkenning van tragische gebeurtenissen. Onze richtlijnen en handhaving gelden consequent voor alle Snapchatters. We maken geen speciale uitzonderingen voor politici of andere publieke figuren.
Tijdens deze periode heeft Snapchat wereldwijd maatregelen getroffen tegen een gecombineerd totaal van 14.613 accounts en stukken content wegens schendingen van onze richtlijnen voor valse informatie.
Totale inhoud- en Accounthandhaving
14.613
Tijdens de rapportageperiode hebben we 22 accounts verwijderd wegens schendingen van ons verbod op terroristische en gewelddadige extremistische inhoud.
Bij Snap verwijderen we de gerapporteerde terroristische en gewelddadige extremisme content via meerdere kanalen. Deze omvatten het toestaan van gebruikers om melding te maken van terroristische en gewelddadige extremistische content via ons in-app-rapportagemenu, en we werken nauw samen met wetshandhavingsinstanties om terrorisme en gewelddadige extremistische inhoud die op Snap kan verschijnen, aan te pakken.
Totaal aantal accountverwijderingen
22
We geven veel om de mentale gezondheid en het welzijn van Snapchatters, wat veel invloed heeft gehad op onze eigen beslissingen met betrekken tot het anders invullen van Snapchat. Als platform dat is ontworpen om echte vrienden te helpen communiceren, geloven we dat Snapchat een unieke rol kan spelen door vrienden in staat te stellen elkaar te steunen tijdens dergelijke moeilijke momenten.
Wanneer ons Trust & Safety-team een Snapchatter in nood herkent, hebben ze de mogelijkheid om bronnen over zelfverwondingspreventie en -ondersteuning door te sturen, en waar nodig de betreffende hulpverleners op de hoogte te stellen. De bronnen die we delen zijn beschikbaar op onze wereldwijde lijst met veiligheidsbronnen, en deze zijn publiekelijk beschikbaar voor alle Snapchatters.
Totaal aantal gedeelde bronnen over zelfmoord
21.622
In dit onderdeel wordt een overzicht gegeven van de handhaving van onze Communityrichtlijnen in een aantal geografische gebieden. Onze richtlijnen zijn van toepassing op alle inhoud op Snapchat en op alle Snapchatters, waar dan ook ter wereld.
In de bijgevoegde CSV zie je waar je informatie kunt vinden voor alle individuele landen.
Regio
Inhoudsverslagen*
Afgedwongen inhoud
Unieke afgedwongen accounts
Noord-Amerika
5.309.390
2.842.832
1.237.884
Europa
3.043.935
1.450.690
595.992
Rest van de wereld
4.539.292
1.963.590
668.555
Totaal
12.892.617
6.257.112
2.502.431