Elke dag gebruiken Snapchatters over de wereld onze app om met hun vrienden te praten en zichzelf creatief te uiten. Ons doel is om producten te ontwerpen en technologie toe te passen die echte vriendschap voedt en ondersteunt in een gezonde, veilige en leuke omgeving. We werken voortdurend aan het verbeteren van de manier waarop we dat doen. We hanteren beleid en Communityrichtlijnen en hebben tools die schadelijke inhoud voorkomen, detecteren en afdwingen. Daarnaast zijn er initiatieven die onze gemeenschap informeren en versterken.

We doen er alles aan om meer transparantie te bieden over de aanwezigheid van inhoud die onze richtlijnen schendt, hoe we ons beleid handhaven, hoe we reageren op rechtshandhavings- en overheidsverzoeken om informatie, en waar we in de toekomst meer inzicht willen bieden. We publiceren twee keer per jaar transparantieverslagen om inzicht te geven in deze inspanningen. We streven er naar om deze rapporten uitgebreider en nuttiger te maken voor de vele belanghebbenden die groot belang hechten aan online veiligheid en transparantie.

Deze rapporteren bestrijken de tweede helft van 2020 (1 juli - 31 december). Net als onze eerdere rapporten bevat dit rapport gegevens over het totaal aantal schendingen wereldwijd tijdens deze periode; het aantal inhoudsrapporten dat we hebben ontvangen en waartegen we actie hebben ondernomen in specifieke categorieën van schendingen; hoe we verzoeken van wetshandhavers en overheden hebben ondersteund en ingewilligd; en een overzicht van onze handhavingsmaatregelen per land.

Als onderdeel van onze voortdurende inspanningen om onze veiligheidshandhaving en onze transparantieverslagen te verbeteren, bevat dit rapport ook een aantal nieuwe elementen:

  • de Violative View Rate (VVR) van inhoud, die een beter begrip biedt voor het aandeel van alle Snaps (of weergaven) die met inhoud die ons beleid heeft geschonden;

  • totale inhoud- en accounthandhaving van valse informatie wereldwijd. Dit was vooral relevant in deze periode, terwijl de wereld bleef vechten tegen een wereldwijde pandemie en pogingen om burgerlijke en democratische normen te ondermijnen; en

  • Verzoeken om onderzoeken naar mogelijke handelsmerkschendingen te ondersteunen.

We werken aan een aantal verbeteringen waardoor we in toekomstige rapporten meer gedetailleerde gegevens kunnen verstrekken. Dat omvat het uitbreiden van subcategorieën van inbreukmakende gegevens. We rapporteren momenteel bijvoorbeeld schendingen met betrekking tot gereguleerde goederen, waaronder illegale drugs en wapens. In de toekomst zijn we van plan om elk in zijn eigen subcategorie op te nemen.

Naarmate er nieuwe online bedreigingen en gedragingen opduiken, zullen we onze tools en tactieken om ze te bestrijden aanpassen. We evalueren voortdurend de risico's en hoe we onze technologische mogelijkheden kunnen verbeteren om onze gemeenschap beter te beschermen. We vragen regelmatig advies aan beveiligings- en veiligheidsexperts over de manieren waarop we kwaadwillenden een stap voor kunnen blijven. We zijn dankbaar voor onze groeiende lijst van partners die waardevolle feedback geven en ons pushen om beter te worden.

Meer informatie over onze benadering en bronnen over veiligheid en privacy vindt u op het tabblad Over transparantieverslagen onderaan de pagina.

Overzicht van inhouds- en accountovertredingen

Onze Communityrichtlijnen verbieden schadelijke inhoud, waaronder misinformatie; samenzweringstheorieën die schade kunnen veroorzaken; misleidende praktijken; illegale activiteiten, waaronder het kopen of verkopen van illegale drugs, namaakgoederen, smokkelwaar of illegale wapens; haatzaaien, haatgroepen en terrorisme; intimidatie en pesten; bedreigingen, geweld en schade, met inbegrip van de verheerlijking van zelfbeschadiging; seksueel expliciete inhoud; en seksuele uitbuiting van kinderen.

Elke dag worden er gemiddeld meer dan vijf miljard Snaps gemaakt met onze Snapchat-camera. Van 1 juli tot 31 december 2020 hebben we wereldwijd 5.543.281 stukken content verwijderd die onze richtlijnen hebben geschonden.

Handhavingsacties kunnen het verwijderen van de aanstootgevende inhoud omvatten; het beëindigen of beperken van de zichtbaarheid van het betreffende account; en het verwijzen van de inhoud naar rechtshandhaving. Als een account wordt beëindigd wegens het schenden van onze Richtlijnen, is het de accounthouder niet toegestaan een nieuw account aan te maken of Snapchat opnieuw te gebruiken.

Tijdens de rapportageperiode zagen we een Violative View Rate (VVR) van 0,08 procent, wat betekent dat van elke 10.000 weergaven van content op Snap er acht content bevatten die in strijd was met onze richtlijnen.

We bieden in-app rapportagetools waarmee Snapchatters snel en gemakkelijk inhoud kunnen rapporteren aan onze Trust- en Safety-teams, die de melding onderzoeken en passende maatregelen zullen nemen. Onze teams proberen zo snel mogelijk handhavingsmaatregelen te nemen en nemen in de overgrote meerderheid van de gevallen binnen twee uur na ontvangst van een in-app-melding maatregelen.

Naast in-app-rapportage bieden we ook online rapportage-opties via onze ondersteuningssite. Bovendien verbeteren onze teams voortdurend de mogelijkheden voor het proactief detecteren van inbreukmakende en illegale inhoud, zoals materiaal met seksueel misbruik van kinderen, inhoud met illegale drugs of wapens, of bedreigingen met geweld. In dit rapport schetsen we specifieke details van ons werk om seksuele uitbuiting en misbruik van kinderen te bestrijden.

Zoals de onderstaande grafieken laten zien, hebben we in de tweede helft van 2020 de meeste in-app-opgaven of -verzoeken om ondersteuning ontvangen over inhoud met imitatie of seksueel expliciete inhoud. We waren in staat om aanzienlijk meer tijd te besteden aan het reageren op meldingen van overtredingen, met name voor gereguleerde goederen, waaronder illegale drugs, namaakgoederen en wapens; seksueel expliciete inhoud; en intimidatie en pesten.

Rapporten totale inhoud*

Totale inhoud bestraft

Totaal aantal unieke accounts bestraft

10,131,891

5,543,281

2.100.124

Reason

Content reports*

Content enforced

% of Total content enforced

Unique accounts enforced

Turnaround time**

Sexually explicit content

5,839,778

4,306,589

77.7%

1,316,484

0.01

Regulated goods

523,390

427,272

7.7%

209,230

0.01

Threatening / violence / harm

882,737

337,710

6.1%

232,705

0.49

Harassment and bullying

723,784

238,997

4.3%

182,414

0.75

Spam

387,604

132,134

2.4%

75,421

0.21

Hate speech

222,263

77,587

1.4%

61,912

0.66

Impersonation

1,552,335

22,992

0.4%

21,958

0.33

*In Inhoudsrapporten wordt melding gemaakt van vermeende schendingen die via de app of hulpverzoeken bij ons terechtkomen.

**De Doorlooptijd is de gemiddelde hoeveelheid tijd in uren die we nodig hebben om actie te ondernemen op een rapportage van een gebruiker.

Toegenomen schendingen

Bestrijding van de verspreiding van valse informatie

We hebben altijd geloofd dat als het gaat om schadelijke inhoud, het niet genoeg is om alleen maar na te denken over beleid en handhaving. Platforms moeten ook nadenken over hun fundamentele architectuur en hun productontwerp. Vanaf het begin was Snapchat anders gebouwd dan traditionele sociale-mediaplatforms, om ons primaire gebruiksscenario van praten met vrienden te ondersteunen, in plaats van een open nieuwsfeed waar iedereen het recht heeft om alles zonder moderaties aan iedereen te verspreiden.

Zoals we in onze introductie uiteenzetten, verbieden onze richtlijnen duidelijk de verspreiding van valse informatie die schade kan veroorzaken, met inbegrip van misinformatie die is gericht op het ondermijnen van burgerlijke processen, zoals onderdrukking van stemgerechtigden, ongegronde medische claims en samenzweringstheorieën zoals het ontkennen van tragische gebeurtenissen. Onze richtlijnen zijn consequent van toepassing op alle Snapchatters. We maken geen uitzonderingen voor politici of publieke figuren.

De Snapchat-app beperkt de viraliteit, waardoor prikkels voor schadelijke en sensationele inhoud worden weggenomen en de problemen in verband met de verspreiding van ontoelaatbare inhoud worden beperkt. We hebben geen open nieuwsfeed en geven ongemodereerde inhoud geen kans om ‘viraal’ te gaan. Ons inhoudsplatform, Discover, bevat alleen inhoud van doorgelichte media-uitgevers en makers van inhoud.

In november 2020 hebben we ons nieuwe entertainmentplatform Spotlight gelanceerd. We modereren content proactief, om ervoor te zorgen dat deze voldoet aan onze richtlijnen voordat deze een groot publiek kan bereiken.

We hebben ook al lang geleden een andere benadering van politieke reclame gekozen. Zoals met alle inhoud op Snapchat, verbieden we valse informatie en bedrieglijke praktijken in onze advertenties. Alle politieke advertenties, inclusief verkiezingsgerelateerde advertenties, advertenties voor belangenbehartiging en advertenties over bepaalde onderwerpen, moeten een duidelijk 'betaald door' bericht bevatten, waarin de sponsorende organisatie wordt vermeld. We gebruiken menselijke beoordelingen om alle politieke advertenties te controleren en verstrekken informatie over alle advertenties die onze beoordeling doorstaan in onze Bibliotheek met politieke advertenties.

Deze benadering is niet perfect, maar het heeft ons geholpen Snapchat te beschermen tegen de dramatische toename van misinformatie in de afgelopen jaren. Deze trend is bijzonder relevant geweest in een periode waarin valse informatie over COVID-19 en de Amerikaanse presidentsverkiezingen van 2020 veel platforms heeft overspoeld.

Tijdens deze periode heeft Snapchat wereldwijd tegen 5.841 stukken content en accounts actie ondernomen wegens schendingen van onze richtlijnen voor valse informatie. In toekomstige rapporten zijn we van plan om meer gedetailleerde uitsplitsingen van valse informatieschendingen te geven.

Gezien de toegenomen bezorgdheid over de inspanningen om de toegang tot stemmen te ontzeggen en de verkiezingsresultaten in de VS in de zomer van 2020 te ondermijnen, hebben we een interne Task Force opgericht die zich richtte op het beoordelen van mogelijke risico's of vectoren voor misbruik van ons platform. De Task Force volgde alle ontwikkelingen en zorgde ervoor dat Snapchat een bron bleef voor betrouwbaar nieuws en informatie. Deze inspanningen omvatten:

  • Het bijwerken van onze communityrichtlijnen om media die manipuleren voor misleidende doeleinden, zoals deepfakes, toe te voegen aan onze categorieën van verboden content;

  • Samenwerken met onze redactionele partners van Discover, om ervoor te zorgen dat uitgevers niet per ongeluk verkeerde informatie hebben versterkt door berichtgeving;

  • Snap Stars, wiens inhoud ook op ons Discover-contentplatform verschijnt, vragen om ervoor te zorgen dat ze voldoen aan onze Communityrichtlijnen en niet onbedoeld valse informatie verspreiden;

  • We hebben duidelijke handhavingsresultaten voor alle inhoud die in strijd is met de wet. In plaats van inhoud te labelen, hebben we deze eenvoudig verwijderd, waardoor de schade van het op grotere schaal delen ervan onmiddellijk wordt verminderd; en

  • Proactief analyseren van entiteiten en andere bronnen van valse informatie die kunnen worden gebruikt om dergelijke informatie op Snapchat te verspreiden, om risico's te beoordelen en preventieve maatregelen te nemen.

Tijdens de COVID-19-pandemie hebben we een vergelijkbare benadering gevolgd voor het verstrekken van betrouwbaar nieuws en informatie. Onder meer via berichtgeving van onze Discover-redactiepartners, via PSA's en vraag-en-antwoord-gesprekken met volksgezondheidsfunctionarissen en medische experts, en via creatieve tools, zoals Augmented Reality-lenzen en filters, bieden we Snapchatters deskundige begeleiding op het gebied van volksgezondheid.

Totale inhoud en Account

5.841

Seksuele uitbuiting en misbruik van kinderen

De uitbuiting van leden van onze gemeenschap, vooral jongeren en minderjarigen, is illegaal, onaanvaardbaar en verboden door onze richtlijnen. Het voorkomen, detecteren en elimineren van misbruik op ons platform is onze topprioriteit. We ontwikkelen voortdurend nieuwe mogelijkheden om materiaal van seksueel misbruik van kinderen (CSAM) en andere soorten uitbuitende inhoud te bestrijden.

Onze Trust- en Safety-teams gebruiken proactieve detectietools, zoals PhotoDNA-technologie, om bekende afbeeldingen van CSAM te identificeren en te rapporteren aan het National Center for Missing and Exploited Children (NCMEC). Wanneer we proactief gevallen van CSAM detecteren of identificeren, bewaren we deze en rapporteren we ze aan de NCMEC, die ze vervolgens zal beoordelen en zal coördineren met de wetshandhaving.

In de tweede helft van 2020 hebben we tegen 2,99 procent van het totale aantal wereldwijde accounts handhavingsmaatregelen genomen wegens schendingen van onze communityrichtlijnen CSAM. Hiervan hebben we bij 73 procent inhoud proactief gedetecteerd en hiertegen actie ondernomen. In totaal hebben we 47.550 accounts verwijderd wegens CSAM-overtredingen en in ieder geval hebben we die inhoud gerapporteerd aan NCMEC.

Tijdens deze periode hebben we enkele stappen gezet om CSAM verder te bestrijden. We hebben Google's Child Sexual Abuse Imagery (CSAI)-technologie voor video's overgenomen, waardoor we video's van CSAM kunnen identificeren en deze aan NCMEC kunnen melden. In combinatie met onze PhotoDNA-detectie voor bekende CSAM-beelden en industriële hash-databases, kunnen we nu proactief bekende video- en fotobeelden detecteren en rapporteren aan autoriteiten. Deze verbeterde mogelijkheid heeft ons in staat gesteld om veel efficiënter te worden in onze detectie en daarmee het melden van dit criminele gedrag.

Daarnaast hebben we onze samenwerking met branche-experts uitgebreid en hebben we aanvullende in-app-functies geïntroduceerd om Snapchatters te informeren over de risico's van contact met vreemden en hoe ze in-app-rapportage kunnen gebruiken om onze Trust- en Veiligheidsteams te waarschuwen voor elk type misbruik. We hebben nieuwe partners toegevoegd aan ons vertrouwde flagger-programma dat doorgelichte veiligheidsexperts een vertrouwelijk kanaal biedt om noodescalaties te melden, zoals een onmiddellijke levensbedreigende situatie of een zaak waarbij CSAM betrokken is. We werken ook nauw samen met deze partners om veiligheidseducatie, wellnessbronnen en andere rapportageondersteuning te bieden, zodat ze de Snapchat-gemeenschap effectief kunnen ondersteunen.

Daarnaast maken we deel uit van de Raad van Bestuur van de Technology Coalition, een groep leiders in de technische industrie die uitbuiting en misbruik van seksueel misbruik van kinderen probeert te voorkomen en uit te bannen. We werken voortdurend samen met andere platforms en veiligheidsexperts om aanvullende oplossingen te onderzoeken om onze gezamenlijke inspanningen in deze ruimte te versterken.

Totaal aantal accountverwijderingen

47.550

Terroristische en extremistische content

Bij Snap was het monitoren van deze ontwikkelingen en het verminderen van mogelijke vectoren voor misbruik op ons platform een onderdeel van ons werk voor de Amerikaanse werkgroep voor verkiezingsintegriteit. Zowel onze productarchitectuur als het ontwerp van onze Groepschat-functionaliteit beperkt de verspreiding van schadelijke inhoud en mogelijkheden voor groepen om zich te organiseren. We bieden Groepschats aan, maar deze zijn beperkt tot enkele tientallen leden, worden niet aanbevolen door algoritmen en zijn niet vindbaar op ons platform als u geen lid bent van die groep.

In de tweede helft van 2020 hebben we acht accounts verwijderd wegens schendingen van ons verbod op terrorisme, aanzetten tot haat en extremistische inhoud.

Totaal aantal accountverwijderingen

8

Landenoverzicht

In dit hoofdstuk vind je een overzicht van de handhaving van onze regels voor een bepaald aantal landen. Onze Communityrichtlijnen zijn van toepassing op alle inhoud op Snapchat en op alle Snapchatters, waar dan ook ter wereld.

In de bijgevoegde CSV zie je waar je informatie kunt vinden voor alle andere landen.

Regio

Inhoudsverslagen*

Afgedwongen inhoud

Unieke afgedwongen accounts

Noord-Amerika

4,230,320

2,538,416

928,980

Europa

2,634,878

1,417,649

535,649

Rest van de wereld

3,266,693

1,587,216

431,407

Totaal

10,131,891

5,543,281

1,896,015