Allt medans Snapchat växer så är vårt mål att fortsätta att ge människor möjlighet att uttrycka sig, leva i ögonblicket, lära sig mer om världen och ha roligt tillsammans, i en trygg och säker miljö. För att göra detta förbättrar vi ständigt våra säkerhets- och integritetsprinciper, inklusive våra Användarvillkor och Community-riktlinjer, våra verktyg för att förebygga, upptäcka och verkställa mot skadligt innehåll, samt initiativ som hjälper till att utbilda och stärka vår community. 

För att ge insyn i dessa ansträngningar och synliggöra vilken typ och mängd av innehåll som rapporteras på vår plattform publicerar vi insynsrapporter två gånger om året. Vi är beslutna att fortsätta att göra dessa rapporter mer omfattande och informativa för de många intressenter som bryr sig djupt om säkerhet och insyn.

Denna rapport täcker andra halvåret 2021 (1 juli - 31 december). Precis som med våra tidigare rapporter visas här data om det globala antalet anmälningar i appen om innehåll och konton som vi har mottagit och verkställt mot över specifika kategorier av överträdelser, hur vi svarade på förfrågningar från rättsväsendet och regeringar och våra verkställighetsåtgärder uppdelat per land. Här fångas även nya tillägg i denna rapport, inklusive Violative View Rate av Snapchat-innehåll, potentiella överträdelser för varumärken och förekomst av falsk information på plattformen.

Som en del av vårt pågående fokus för att förbättra våra insynsrapporter presenterar vi flera nya element i denna rapport. Från och med denna rapport och framåt bryter vi ut droger, vapen och reglerade varor i sina egna kategorier, vilket kommer att ge ytterligare information om deras förekomst och våra ansträngningar att bekämpa dem.

För första gången har vi också skapat en ny kategori för anmälningar om självmord och självskadebeteende för att ge insyn i antal innehålls- och kontoanmälningar som vi tar emot och vidtar åtgärder mot. Som en del av vårt åtagande att stödja vår communitys välmående delar våra förtroende- och säkerhetsteam resurser i appen till Snapchattare som behöver dem och vi delar också mer information om det arbetet här. 

För mer information om våra policyer för att bekämpa faror på nätet och våra planer för att fortsätta utveckla våra rapporteringsmetoder, läs vår senaste Säkerhets- och påverkansblogg om denna insynsrapport. 

För att hitta ytterligare resurser för säkerhet och integritet på Snapchat se vår flik Om insynsrapportering längst ner på sidan.

Översikt över innehålls- och kontoöverträdelser

Från 1 juli - 31 december 2021 tillämpade vi åtgärder mot 6 257 122 olika innehåll globalt som stred mot våra policyer. Verkställighetsåtgärder inkluderar att ta bort det kränkande innehållet eller att ta bort det konto som det gäller. 

Under rapporteringsperioden såg vi en Violative View Rate (VVR) på 0,08 procent, vilket innebär att av varje 10 000 visningar av Snappar och Stories på Snapchat så hade 8 innehåll som bröt mot våra riktlinjer.

Totalt antal innehålls- och kontoanmälningar

Totalt antal innehåll som föranlett åtgärd

Totalt antal unika konton som föranlett åtgärd

12 892 617

6 257 122

2 704 771

Anledning

Innehålls- och kontoanmälningar

Innehåll som föranlett åtgärd

% av totalt åtgärdat innehåll

Unika konton som föranlett åtgärd

Median återkopplingstid (minuter)

Sexuellt innehåll

7 605 480

4 869 272

77,8 %

1 716 547

< 1

Droger

805 057

428 311

6,8 %

278 304

10

Trakasserier och mobbning

988 442

346 624

5,5 %

274 395

12

Hot och våld

678 192

232 565

3,7 %

159 214

12

Spam

463 680

153 621

2,5 %

110 102

4

Hets mot folkgrupp

200 632

93 341

1,5 %

63 767

12

Andra reglerade varor

56 505

38 860

0,6 %

26 736

6

Självskadebeteende och självmord

164 571

33 063

0,5 %

29 222

12

Imitation

1 863 313

32 749

0,5 %

25 174

< 1

Vapen

66 745

28 706

0,5 %

21 310

8

Överträdelser i detalj

Bekämpning av material relaterat till sexuellt utnyttjande av barn

Sexuellt utnyttjande av någon medlem av vår community, särskilt minderåriga, är olagligt, oacceptabelt och förbjudet enligt våra Community-riktlinjer. Att förebygga, upptäcka och eliminera material relaterat till sexuellt utnyttjande av barn (CSAM) på vår plattform är högsta prioritet för oss och vi utvecklar kontinuerligt vår förmåga att ta itu med CSAM och andra typer av innehåll med sexuellt utnyttjande av barn.

Våra förtroende- och säkerhetsteam använder aktiva verktyg, såsom PhotoDNA robust hash-matching och Google’s Child Sexual Abuse Imagery (CSAI) Match för att identifiera olagliga bilder och videor med CSAM och rapportera dem till U.S. National Center for Missing och Exploited Children (NCMEC), som krävs enligt lag. NCMEC koordinerar i sin tur med nationella eller internationella rättsväsendet. 

Under andra halvåret 2021 upptäckte vi proaktivt och tog åtgärder mot 88 procent av de totala CSAM-överträdelser som rapporteras här.

Totalt antal raderade konton

198 109

Bekämpning av spridning av falsk information

Vi har alltid ansett att när det gäller skadligt innehåll räcker det inte att tänka på policy och åtgärder, plattformar måste överväga sin grundläggande arkitektur och produktdesign. Snapchat byggdes redan från början annorlunda än traditionella sociala medieplattformar, utan ett öppet nyhetsflöde där vem som helst kan sända till en stor publik utan moderation.

Våra riktlinjer förbjuder tydligt spridning av falsk information som kan orsaka skada, inklusive falsk information som syftar till att underminera medborgarprocesser, ogrundade medicinska anspråk och förnekande av tragiska händelser. Våra riktlinjer och åtgärder gäller konsekvent för alla Snapchattare, vi gör inte särskilda undantag för politiker eller andra offentliga personer.

Globalt under denna period tillämpade Snapchat åtgärder mot totalt 14 613 konton och innehåll för överträdelser av våra riktlinjer för falsk information.

Totalt verkställande mot innehåll och konton

14 613

Terrorism & våldsamt extremistiskt innehåll

Under rapporteringsperioden tog vi bort 22 konton för brott mot vårt förbud mot terrorism och våldsamt extremistiskt innehåll.

På Snap tar vi bort innehåll som förespråkar terrorism och våldsam extremism som rapporteras via flera kanaler. Till exempel möjliggör vi för användare att rapportera terrorism och våldsamt extremistiskt innehåll via vår meny för rapportering i appen och vi arbetar nära med rättsväsendet för att bemöta terrorism och våldsamt extremistiskt innehåll som kan dyka upp på Snap.

Totalt antal raderade konton

22

Innehåll relaterat till självskadebeteende och självmord

Vi bryr oss djupt om Snapchattares psykiska hälsa och välbefinnande, vilket har informerat många av våra egna beslut om hur Snapchat ska byggas annorlunda. Eftersom Snapchat som plattform är utformad för att hjälpa riktiga vänner att kommunicera tror vi att den kan ha en unik roll genom att ge vänner möjligheter att hjälpa varandra genom dessa svåra ögonblick.

När vårt team för förtroende och säkerhet upptäcker en Snapchattare i nöd har de möjlighet att vidarebefordra resurser för förebyggande av självskadebeteende och stöd, samt att meddela personal i räddningstjänst om nödsituationer där det är lämpligt. De resurser vi delar ut är tillgängliga på vår globala lista över säkerhetsresurser och dessa är offentligt tillgängliga för alla Snapchattare.

Totalt antal gånger resurser om självmord delades

21 622

Översikt, länder

Detta avsnitt ger en översikt över verkställigheten av våra Community-riktlinjer i en provtagning av geografiska regioner. Våra riktlinjer gäller för allt innehåll på Snapchat (och alla Snapchattare) över hela världen, oavsett plats. 

Information för enskilda länder är tillgänglig för nedladdning via bifogad CSV-fil.

Region

Innehållsrapporteringar*

Innehåll som föranlett åtgärd

Unika konton beivrade

Nordamerika

5 309 390

2 842 832

1 237 884

Europa

3 043 935

1 450 690

595 992

Övriga världen

4 539 292

1 963 590

668 555

Totalt

12 892 617

6 257 112

2 502 431