Allt medans Snapchat växer så är vårt mål att fortsätta att ge människor möjlighet att uttrycka sig, leva i ögonblicket, lära sig mer om världen och ha roligt tillsammans, i en trygg och säker miljö. För att göra detta förbättrar vi ständigt våra säkerhets- och integritetsprinciper, inklusive våra Användarvillkor och Community-riktlinjer, våra verktyg för att förebygga, upptäcka och verkställa mot skadligt innehåll, samt initiativ som hjälper till att utbilda och stärka vår community.
För att ge insyn i dessa ansträngningar och synliggöra vilken typ och mängd av innehåll som rapporteras på vår plattform publicerar vi insynsrapporter två gånger om året. Vi är beslutna att fortsätta att göra dessa rapporter mer omfattande och informativa för de många intressenter som bryr sig djupt om säkerhet och insyn.
Denna rapport täcker andra halvåret 2021 (1 juli - 31 december). Precis som med våra tidigare rapporter visas här data om det globala antalet anmälningar i appen om innehåll och konton som vi har mottagit och verkställt mot över specifika kategorier av överträdelser, hur vi svarade på förfrågningar från rättsväsendet och regeringar och våra verkställighetsåtgärder uppdelat per land. Här fångas även nya tillägg i denna rapport, inklusive Violative View Rate av Snapchat-innehåll, potentiella överträdelser för varumärken och förekomst av falsk information på plattformen.
Som en del av vårt pågående fokus för att förbättra våra insynsrapporter presenterar vi flera nya element i denna rapport. Från och med denna rapport och framåt bryter vi ut droger, vapen och reglerade varor i sina egna kategorier, vilket kommer att ge ytterligare information om deras förekomst och våra ansträngningar att bekämpa dem.
För första gången har vi också skapat en ny kategori för anmälningar om självmord och självskadebeteende för att ge insyn i antal innehålls- och kontoanmälningar som vi tar emot och vidtar åtgärder mot. Som en del av vårt åtagande att stödja vår communitys välmående delar våra förtroende- och säkerhetsteam resurser i appen till Snapchattare som behöver dem och vi delar också mer information om det arbetet här.
För mer information om våra policyer för att bekämpa faror på nätet och våra planer för att fortsätta utveckla våra rapporteringsmetoder, läs vår senaste Säkerhets- och påverkansblogg om denna insynsrapport.
För att hitta ytterligare resurser för säkerhet och integritet på Snapchat se vår flik Om insynsrapportering längst ner på sidan.
Från 1 juli - 31 december 2021 tillämpade vi åtgärder mot 6 257 122 olika innehåll globalt som stred mot våra policyer. Verkställighetsåtgärder inkluderar att ta bort det kränkande innehållet eller att ta bort det konto som det gäller.
Under rapporteringsperioden såg vi en Violative View Rate (VVR) på 0,08 procent, vilket innebär att av varje 10 000 visningar av Snappar och Stories på Snapchat så hade 8 innehåll som bröt mot våra riktlinjer.
Totalt antal innehålls- och kontoanmälningar
Totalt antal innehåll som föranlett åtgärd
Totalt antal unika konton som föranlett åtgärd
12 892 617
6 257 122
2 704 771
Anledning
Innehålls- och kontoanmälningar
Innehåll som föranlett åtgärd
% av totalt åtgärdat innehåll
Unika konton som föranlett åtgärd
Median återkopplingstid (minuter)
Sexuellt innehåll
7 605 480
4 869 272
77,8 %
1 716 547
< 1
Droger
805 057
428 311
6,8 %
278 304
10
Trakasserier och mobbning
988 442
346 624
5,5 %
274 395
12
Hot och våld
678 192
232 565
3,7 %
159 214
12
Spam
463 680
153 621
2,5 %
110 102
4
Hets mot folkgrupp
200 632
93 341
1,5 %
63 767
12
Andra reglerade varor
56 505
38 860
0,6 %
26 736
6
Självskadebeteende och självmord
164 571
33 063
0,5 %
29 222
12
Imitation
1 863 313
32 749
0,5 %
25 174
< 1
Vapen
66 745
28 706
0,5 %
21 310
8
Sexuellt utnyttjande av någon medlem av vår community, särskilt minderåriga, är olagligt, oacceptabelt och förbjudet enligt våra Community-riktlinjer. Att förebygga, upptäcka och eliminera material relaterat till sexuellt utnyttjande av barn (CSAM) på vår plattform är högsta prioritet för oss och vi utvecklar kontinuerligt vår förmåga att ta itu med CSAM och andra typer av innehåll med sexuellt utnyttjande av barn.
Våra förtroende- och säkerhetsteam använder aktiva verktyg, såsom PhotoDNA robust hash-matching och Google’s Child Sexual Abuse Imagery (CSAI) Match för att identifiera olagliga bilder och videor med CSAM och rapportera dem till U.S. National Center for Missing och Exploited Children (NCMEC), som krävs enligt lag. NCMEC koordinerar i sin tur med nationella eller internationella rättsväsendet.
Under andra halvåret 2021 upptäckte vi proaktivt och tog åtgärder mot 88 procent av de totala CSAM-överträdelser som rapporteras här.
Totalt antal raderade konton
198 109
Vi har alltid ansett att när det gäller skadligt innehåll räcker det inte att tänka på policy och åtgärder, plattformar måste överväga sin grundläggande arkitektur och produktdesign. Snapchat byggdes redan från början annorlunda än traditionella sociala medieplattformar, utan ett öppet nyhetsflöde där vem som helst kan sända till en stor publik utan moderation.
Våra riktlinjer förbjuder tydligt spridning av falsk information som kan orsaka skada, inklusive falsk information som syftar till att underminera medborgarprocesser, ogrundade medicinska anspråk och förnekande av tragiska händelser. Våra riktlinjer och åtgärder gäller konsekvent för alla Snapchattare, vi gör inte särskilda undantag för politiker eller andra offentliga personer.
Globalt under denna period tillämpade Snapchat åtgärder mot totalt 14 613 konton och innehåll för överträdelser av våra riktlinjer för falsk information.
Totalt verkställande mot innehåll och konton
14 613
Under rapporteringsperioden tog vi bort 22 konton för brott mot vårt förbud mot terrorism och våldsamt extremistiskt innehåll.
På Snap tar vi bort innehåll som förespråkar terrorism och våldsam extremism som rapporteras via flera kanaler. Till exempel möjliggör vi för användare att rapportera terrorism och våldsamt extremistiskt innehåll via vår meny för rapportering i appen och vi arbetar nära med rättsväsendet för att bemöta terrorism och våldsamt extremistiskt innehåll som kan dyka upp på Snap.
Totalt antal raderade konton
22
Vi bryr oss djupt om Snapchattares psykiska hälsa och välbefinnande, vilket har informerat många av våra egna beslut om hur Snapchat ska byggas annorlunda. Eftersom Snapchat som plattform är utformad för att hjälpa riktiga vänner att kommunicera tror vi att den kan ha en unik roll genom att ge vänner möjligheter att hjälpa varandra genom dessa svåra ögonblick.
När vårt team för förtroende och säkerhet upptäcker en Snapchattare i nöd har de möjlighet att vidarebefordra resurser för förebyggande av självskadebeteende och stöd, samt att meddela personal i räddningstjänst om nödsituationer där det är lämpligt. De resurser vi delar ut är tillgängliga på vår globala lista över säkerhetsresurser och dessa är offentligt tillgängliga för alla Snapchattare.
Totalt antal gånger resurser om självmord delades
21 622
Detta avsnitt ger en översikt över verkställigheten av våra Community-riktlinjer i en provtagning av geografiska regioner. Våra riktlinjer gäller för allt innehåll på Snapchat (och alla Snapchattare) över hela världen, oavsett plats.
Information för enskilda länder är tillgänglig för nedladdning via bifogad CSV-fil.
Region
Innehållsrapporteringar*
Innehåll som föranlett åtgärd
Unika konton beivrade
Nordamerika
5 309 390
2 842 832
1 237 884
Europa
3 043 935
1 450 690
595 992
Övriga världen
4 539 292
1 963 590
668 555
Totalt
12 892 617
6 257 112
2 502 431