Hier bij Snap leveren we een bijdrage aan de vooruitgang van de mens. Dat doen we door mensen in staat te stellen om zich uit te drukken, in het moment te leven, meer over de wereld te weten te komen en samen plezier te beleven. We vinden het welzijn van onze community erg belangrijk en als we producten bouwen, houden we aan het begin van het ontwerpproces rekening met de privacy en veiligheid van Snapchatters.
We hebben duidelijke en grondige richtlijnen die onze missie ondersteunen door zelfexpressie zo goed mogelijk te bevorderen en Snapchatters te stimuleren om onze diensten elke dag veilig te gebruiken. Onze Communityrichtlijnen verbieden de verspreiding van valse informatie die: schade kan toebrengen, haatzaait, pest, lastigvalt, illegale activiteiten, seksueel expliciete inhoud of grafisch geweld bevat en nog veel meer.
Ons transparantieverslag biedt belangrijke informatie over de schokkende inhoud waar we tegen optreden, overheidsverzoeken om accountinformatie van Snapchatters en andere juridische kennisgevingen.
Meer informatie over onze benadering en bronnen over veiligheid en privacy vind je op het tabblad Over transparantieverslagen onderaan de pagina.
Iedere dag worden er meer dan vier miljard Snaps gemaakt met onze camera. Van 1 januari 2020 t/m 30 juni 2020 hebben we wereldwijd tegen 3.872.218 posts actie ondernomen wegens schending van onze Communityrichtlijnen. Dit is minder dan 0,012 procent van alle posts in Verhalen. Onze teams ondernemen in het algemeen snel actie als er sprake is van dergelijke schendingen, door Snaps of accounts te verwijderen, informatie door te spelen aan het National Center for Missing & Exploited Children (NCMEC) of de politie in te schakelen. Nadat we een in-app melding hebben ontvangen, ondernemen we in de meeste gevallen binnen twee uur actie tegen de post.
Rapporten totale inhoud*
Totale inhoud bestraft
Totaal aantal unieke accounts bestraft
13.204.971
3.872.218
1.692.859
*In Inhoudsrapporten wordt melding gemaakt van vermeende schendingen die via de app of hulpverzoeken bij ons terechtkomen.
**De Doorlooptijd is de gemiddelde hoeveelheid tijd in uren die we nodig hebben om actie te ondernemen op een rapportage van een gebruiker.
We hebben altijd geloofd dat als het gaat om schadelijke inhoud, het niet genoeg is om alleen maar na te denken over beleid en handhaving. Platforms moeten ook nadenken over hun fundamentele architectuur en hun productontwerp. Vanaf het begin was Snapchat anders gebouwd dan traditionele sociale-mediaplatforms, om ons primaire gebruiksscenario van praten met vrienden te ondersteunen, in plaats van een open nieuwsfeed waar iedereen het recht heeft om alles zonder moderaties aan iedereen te verspreiden.
Zoals we in onze introductie uiteenzetten, verbieden onze richtlijnen duidelijk de verspreiding van valse informatie die schade kan veroorzaken, met inbegrip van misinformatie die is gericht op het ondermijnen van burgerlijke processen, zoals onderdrukking van stemgerechtigden, ongegronde medische claims en samenzweringstheorieën zoals het ontkennen van tragische gebeurtenissen. Onze richtlijnen zijn consequent van toepassing op alle Snapchatters. We maken geen uitzonderingen voor politici of publieke figuren.
De Snapchat-app beperkt de viraliteit, waardoor prikkels voor schadelijke en sensationele inhoud worden weggenomen en de problemen in verband met de verspreiding van ontoelaatbare inhoud worden beperkt. We hebben geen open nieuwsfeed en geven ongemodereerde inhoud geen kans om ‘viraal’ te gaan. Ons inhoudsplatform, Discover, bevat alleen inhoud van doorgelichte media-uitgevers en makers van inhoud.
In november 2020 hebben we ons nieuwe entertainmentplatform Spotlight gelanceerd. We modereren content proactief, om ervoor te zorgen dat deze voldoet aan onze richtlijnen voordat deze een groot publiek kan bereiken.
We hebben ook al lang geleden een andere benadering van politieke reclame gekozen. Zoals met alle inhoud op Snapchat, verbieden we valse informatie en bedrieglijke praktijken in onze advertenties. Alle politieke advertenties, inclusief verkiezingsgerelateerde advertenties, advertenties voor belangenbehartiging en advertenties over bepaalde onderwerpen, moeten een duidelijk 'betaald door' bericht bevatten, waarin de sponsorende organisatie wordt vermeld. We gebruiken menselijke beoordelingen om alle politieke advertenties te controleren en verstrekken informatie over alle advertenties die onze beoordeling doorstaan in onze Bibliotheek met politieke advertenties.
Deze benadering is niet perfect, maar het heeft ons geholpen Snapchat te beschermen tegen de dramatische toename van misinformatie in de afgelopen jaren. Deze trend is bijzonder relevant geweest in een periode waarin valse informatie over COVID-19 en de Amerikaanse presidentsverkiezingen van 2020 veel platforms heeft overspoeld.
Tijdens deze periode heeft Snapchat wereldwijd tegen 5.841 stukken content en accounts actie ondernomen wegens schendingen van onze richtlijnen voor valse informatie. In toekomstige rapporten zijn we van plan om meer gedetailleerde uitsplitsingen van valse informatieschendingen te geven.
Gezien de toegenomen bezorgdheid over de inspanningen om de toegang tot stemmen te ontzeggen en de verkiezingsresultaten in de VS in de zomer van 2020 te ondermijnen, hebben we een interne Task Force opgericht die zich richtte op het beoordelen van mogelijke risico's of vectoren voor misbruik van ons platform. De Task Force volgde alle ontwikkelingen en zorgde ervoor dat Snapchat een bron bleef voor betrouwbaar nieuws en informatie. Deze inspanningen omvatten:
Het bijwerken van onze communityrichtlijnen om media die manipuleren voor misleidende doeleinden, zoals deepfakes, toe te voegen aan onze categorieën van verboden content;
Samenwerken met onze redactionele partners van Discover, om ervoor te zorgen dat uitgevers niet per ongeluk verkeerde informatie hebben versterkt door berichtgeving;
Snap Stars, wiens inhoud ook op ons Discover-contentplatform verschijnt, vragen om ervoor te zorgen dat ze voldoen aan onze Communityrichtlijnen en niet onbedoeld valse informatie verspreiden;
We hebben duidelijke handhavingsresultaten voor alle inhoud die in strijd is met de wet. In plaats van inhoud te labelen, hebben we deze eenvoudig verwijderd, waardoor de schade van het op grotere schaal delen ervan onmiddellijk wordt verminderd; en
Proactief analyseren van entiteiten en andere bronnen van valse informatie die kunnen worden gebruikt om dergelijke informatie op Snapchat te verspreiden, om risico's te beoordelen en preventieve maatregelen te nemen.
Tijdens de COVID-19-pandemie hebben we een vergelijkbare benadering gevolgd voor het verstrekken van betrouwbaar nieuws en informatie. Onder meer via berichtgeving van onze Discover-redactiepartners, via PSA's en vraag-en-antwoord-gesprekken met volksgezondheidsfunctionarissen en medische experts, en via creatieve tools, zoals Augmented Reality-lenzen en filters, bieden we Snapchatters deskundige begeleiding op het gebied van volksgezondheid.
Legenda grafiek
Reden
Inhoudsverslagen*
Afgedwongen inhoud
Unieke afgedwongen accounts
Doorlooptijd**
1
Intimidatie en pesten
857.493
175.815
145.445
0,4
2
Haatdragende taal
229.375
31.041
26.857
0,6
3
Imitatie
1.459.467
22.435
21.510
0,1
4
Gereguleerde goederen
520.426
234.527
137.721
0,3
5
Seksueel expliciete inhoud
8.522.585
3.119.948
1.160.881
0,2
6
Spam
552.733
104.523
59.131
0,2
7
Bedreiging / Geweld / Schade
1.062.892
183.929
141.314
0,5
*In Inhoudsrapporten wordt melding gemaakt van vermeende schendingen die via de app of hulpverzoeken bij ons terechtkomen.
**De Doorlooptijd is de gemiddelde hoeveelheid tijd in uren die we nodig hebben om actie te ondernemen op een rapportage van een gebruiker.
Het uitbuiten van een lid van onze community, en dan vooral jongeren, is onaanvaardbaar en verboden op Snapchat. Het voorkomen, opsporen en verwijderen van misbruik op ons platform is een prioriteit voor ons. We verbeteren voortdurend om dit soort illegale activiteiten te bestrijden.
Rapportages over materiaal voor seksueel misbruik van kinderen (CSAM) worden snel door ons team Vertrouwen en Veiligheid behandeld en als zij bewijs vinden voor deze activiteit, dan wordt het betreffende account verwijderd en er wordt melding van gemaakt bij het National Center for Missing & Exploited Children (NCMEC). We bieden 24 uur per dag ondersteuning aan internationale wetshandhavingsinstanties die contact met ons opnemen voor hulp bij zaken waarbij vermiste of bedreigde jongeren betrokken zijn.
We gebruiken PhotoDNA-technologie om actief foto's met beelden van seksuele uitbuiting en misbruik van kinderen op te sporen en te rapporteren aan de autoriteiten. Van het totaal aantal accounts waar we tegen hebben opgetreden vanwege schendingen van onze Communityrichtlijnen, werd 2,99% verwijderd vanwege CSAM.
Daarnaast wist Snap 70% van dit soort accounts actief te verwijderen.
Totaal aantal accountverwijderingen
47.136
Terroristische organisaties en haatgroepen zijn verboden op Snapchat en we tolereren geen inhoud waarin gewelddadig extremisme of terrorisme wordt aangehangen of aanbevolen.
Totaal aantal accountverwijderingen
<10
In dit hoofdstuk vind je een overzicht van de handhaving van onze regels voor een bepaald aantal landen. Onze Communityrichtlijnen zijn van toepassing op alle inhoud op Snapchat en op alle Snapchatters, waar dan ook ter wereld.
In de bijgevoegde CSV zie je waar je informatie kunt vinden voor alle andere landen.
Regio
Inhoudsverslagen*
Afgedwongen inhoud
Unieke afgedwongen accounts
Noord-Amerika
5.769.636
1.804.770
785.315
Europa
3.419.235
960.761
386.728
Rest van de wereld
4.016.100
1.106.687
413.272
Totaal
13.204.971
3.872.218
1.578.985