Varje dag använder Snapchattare världen över vår app för att prata med sina nära vänner och uttrycka sig kreativt. Vårt mål är att designa produkter och bygga teknik som vårdar och stöder verkliga vänner i en hälsosam, säker och rolig miljö. Vi arbetar ständigt för att förbättra våra sätt att göra det – från våra policies och Community-riktlinjer till våra verktyg för att förebygga, upptäcka och verkställa mot skadligt innehåll till initiativ som hjälper till att utbilda och stärka vårt community.
Vi är engagerade för att ge mer insyn när det gäller förekomsten av innehåll som bryter mot våra riktlinjer, hur vi genomdriver våra policies, hur vi svarar på rättsväsendet och myndigheters förfrågningar om information och där vi försöker ge mer insyn i framtiden. Vi publicerar insynsrapporter två gånger om året för att ge insyn i dessa ansträngningar och är också engagerade för att göra dessa rapporter mer omfattande och användbara för många intressenter som bryr sig djupt om säkerhet och transparens på nätet.
Den här rapporten täcker andra halvåret av 2020 (1 juli - 31 december). Precis som med våra tidigare rapporter visar vi data om våra totala överträdelser globalt under denna period; antalet innehållsrapporter vi fick och påtvingade mot över specifika kategorier av överträdelser; hur vi stödde och uppfyllde förfrågningar från rättsväsendet och regeringar; och våra verkställighetsåtgärder per land.
Som en del av våra pågående ansträngningar för att förbättra både vårt säkerhetsskydd och våra insynsrapporter innehåller denna rapport även flera nya element:
Violative View Rate (VVR) av innehåll, som erbjuder en bättre förståelse för andelen Snappar (eller visningar) som innehöll innehåll som bröt mot våra policies;
Totalt innehåll och verkställighet av falsk information globalt gällande konton som överträtts – som var särskilt relevant under denna tidsperiod, eftersom världen fortsatte att bekämpa en global pandemi och ansträngningar för att undergräva medborgerliga och demokratiska normer; och
Begäran om att stödja utredningar av varumärkesbeträdelsser.
Vi arbetar på ett antal förbättringar som kommer att förbättra vår förmåga att tillhandahålla mer data i framtida rapporter. Det inkluderar att expandera underkategorier av kränkande data. Vi anmäler för närvarande överträdelser som rör reglerade varor, som inkluderar olagliga droger och vapen. Vi planerar att inkludera var och en i en egen underkategori.
När nya hot och beteenden sker på nätet kommer vi att fortsätta att förbättra våra verktyg och vår taktik för att bekämpa dem. Vi utvärderar ständigt riskerna och hur vi kan avancera våra tekniska möjligheter för att bättre skydda vårt community. Vi söker regelbundet vägledning från skydds- och säkerhetsexperter om hur vi kan vara ett steg före dåliga aktörer och är tacksamma för vår växande lista över partners som ger ovärdelig feedback och driver oss framåt för att bli bättre.
För mer information om vårt förhållningssätt till och resurser för säkerhet och integritet ber vi dig ta en titt på fliken Om insynsrapportering längst ner på sidan.
Våra Community-riktlinjer förbjuder skadligt innehåll, inklusive desinformation; konspirationsteorier som kan orsaka skada; bedrägliga metoder; olagliga aktiviteter, inklusive att köpa eller sälja olagliga droger, förfalskade varor, smuggling eller olagliga vapen; hattal, hatgrupper och terrorism; trakasserier mobbning; hot, våld och skada, inklusive förhärligande av självskada; sexuellt innehåll och sexuellt utnyttjande av barn.
Varje dag skapas i genomsnitt mer än fem miljarder Snappar med vår Snapchat-kamera. Från 1 juli - 31 december 2020 genomförde vi verkställighetsåtgärder mot 5 543 281 innehållsdelar globalt som bröt mot våra riktlinjer.
Verkställighetsåtgärder kan inkludera att ta bort det kränkande innehållet; att avsluta eller begränsa synligheten för kontot i fråga; och hänvisa innehållet till rättsväsendet. Om ett konto avslutas för att ha brytit mot våra riktlinjer tillåts inte kontoinnehavaren att skapa ett nytt konto eller använda Snapchat igen.
Under rapporteringsperioden såg vi en Violative View Rate (VVR) på 0,08 procent, vilket innebär att av varje 10 000 innehållsvisningar på Snap innehöll åtta innehåll som bröt mot våra riktlinjer.
Vi erbjuder rapporteringsverktyg i appen som tillåter Snapchattare att snabbt och enkelt anmäla innehåll till våra förtroende- och säkerhetsteam, som undersöker rapporten och vidtar lämpliga åtgärder. Våra team arbetar för att vidta verkställighetsåtgärder så snabbt som möjligt och i de flesta fall vidta åtgärder inom två timmar efter att ha fått en anmälan i appen.
Utöver anmälningar i appen erbjuder vi även alternativ för rapportering på nätet via vår supportsida. Dessutom förbättrar våra team ständigt kapaciteten för att proaktivt upptäcka kränkande och olagligt innehåll, som till exempel material för sexuella övergrepp mot barn, innehåll som involverar olagliga droger eller vapen eller hot om våld. Vi sammanfattar specifika detaljer om vårt arbete för att bekämpa sexuellt utnyttjande av barn och missförhållanden i denna rapport.
Som tabellerna nedan visar, under andra halvåret av 2020 fick vi de flesta anmälningarna i appen eller förfrågningar om stöd gällande innehåll som involverade personifiering eller sexuellt explicit innehåll. Vi kunde avsevärt förbättra vår tid för att svara på rapporter om överträdelser, särskilt för reglerade varor, som inkluderar olagliga droger, förfalskade varor och vapen; sexuellt innehåll; och trakasserier och mobbning.
Antal innehållsrapporteringar*
Antal beivrat innehåll
Antal unika konton beivrade
10 131 891
5 543 281
2 100 124
Reason
Content Reports*
Content Enforced
% of Total Content Enforced
Unique Accounts Enforced
Turnaround Time**
Sexually Explicit Content
5,839,778
4,306,589
77.7%
1,316,484
0.01
Regulated Goods
523,390
427,272
7.7%
209,230
0.01
Threatening / Violence / Harm
882,737
337,710
6.1%
232,705
0.49
Harassment and Bullying
723,784
238,997
4.3%
182,414
0.75
Spam
387,604
132,134
2.4%
75,421
0.21
Hate Speech
222,263
77,587
1.4%
61,912
0.66
Impersonation
1,552,335
22,992
0.4%
21,958
0.33
*Innehållsrapporterna speglar påstådda överträdelser via våra förfrågningar i appen och i supporten.
**Återkopplingstid återspeglar mediantiden i timmar till åtgärder för en anmälan från en användare.
Vi har alltid trott att när det gäller skadligt innehåll räcker det inte att bara tänka på policies och verkställighet – plattformar måste tänka på deras grundläggande arkitektur och produktdesign. Från början byggdes Snapchat på annat sätt än traditionella sociala medieplattformar, för att stödja vårt primära användningsfall för att prata med nära vänner - snarare än ett öppet nyhetsflöde där vem som helst har rätt att distribuera vad som helst till vem som helst utan moderation.
Som vi förklarar i vår introduktion, förbjuder våra riktlinjer tydligt spridning av falsk information som kan orsaka skada, inklusive desinformation som syftar till att undergräva medborgeliga processer, som till exempel vid val, ogrundade medicinska påståenden och konspirationsteorier som t.ex. förnekande av tragiska händelser. Våra riktlinjer gäller konsekvent för alla Snapchattare –– vi har inte särskilda undantag för politiker eller offentliga personer.
I vår app begränsar Snapchat viralitet, som tar bort incitament för skadligt och sensationellt innehåll och begränsar problem som är förknippade med spridning av dåligt innehåll. Vi har inte ett öppet nyhetsflöde och ger inte ogranskat innehåll en möjlighet att "bli viralt." Vår innehållsplattform, Discover, har endast innehåll som publiceras via granskade medier och innehållsskapare.
I november 2020 lanserade vi vår nya underhållningsplattform, Spotlight, och proaktivt modererade innehållet för att se till att det följer våra riktlinjer innan det kan nå en stor publik.
Vi har länge tagit ett annat tillvägagångssätt för politisk annonsering också. Som med allt innehåll på Snapchat förbjuder vi falsk information och bedrägliga metoder i vår annonsering. Alla politiska annonser, inkluderade valrelaterade annonser och annonser för opinionsbildning måste inkludera ett öppet "betalt" meddelande som avslöjar sponsringsorganisationen. Vi använder mänsklig granskning för att faktakontrollera alla politiska annonser och ge information om alla annonser som godkänns i vår granskning i vårt bibliotek för politiska annonser.
Detta tillvägagångssätt är inte perfekt, men det har hjälpt oss att skydda Snapchat från den dramatiska ökningen av desinformation under de senaste åren, en trend som har varit särskilt relevant under en period när falsk information om COVID-19 och USA:s presidentval 2020 var synligt på många plattformar.
Globalt under denna period verkställde Snapchat åtgärder mot 5 841 delar av innehåll och konton för överträdelser av våra riktlinjer för falsk information. I framtida rapporter planerar vi att ge mer detaljerad information gällande överträdelser med falsk information.
Med tanke på den ökade oron för ansträngningar att undergräva röstningsåtkomst och valresultaten i USA sommaren 2020 bildade vi en intern arbetsgrupp som fokuserade på att bedöma eventuella risker eller vektorer för missbruk av vår plattform, övervakade alla utvecklingar och arbetade för att säkerställa att Snapchat var en källa för nyhetsfakta och information. Dessa ansträngningar inkluderade:
Uppdatering av våra Ccommunity-riktlinjer för att lägga till att manipulera media för vilseledande ändamål, som t.ex. 'deepfakes', till våra kategorier av förbjudet innehåll;
Arbeta med redaktionella partners till vårt Discover för att se till att förläggare inte oavsiktligt förstärkte någon felaktig information genom nyhetstäckning;
Fråga Snap Stars, vars innehåll också visas vår innehållsplattform Discover, för att se till att de följde våra Community-riktlinjer och inte oavsiktligt spred falsk information;
Ha tydliga verkställighetsresultat för allt kränkande innehåll – snarare än att märka innehåll tog vi helt enkelt bort det och omedelbart minskade risken för att det delades mer brett; och
Proaktivt analysera enheter och andra källor till falsk information som kunde användas för att distribuera sådan information på Snapchat för att bedöma risk och vidta förebyggande åtgärder.
Under hela COVID-19-pandemin, har vi tagit ett liknande tillvägagångssätt för att ge faktanyheter och information, inklusive via vårt innehåll på Discover genom redaktionella partners, via PSA:s och frågor och svar med offentliga hälso- och medicinska experter och genom kreativa verktyg, som Augmented Reality-linser och filter, som påminner Snapchattare om experter för folkhälsorådgivning.
Totalt innehåll & Verkställande konton
5 841
Utnyttjandet av någon medlem av vårt community, särskilt ungdomar och minderåriga, är olagligt, oacceptabelt och förbjudet enligt våra riktlinjer. Förebyggande, upptäckt och eliminering av missbruk på vår plattform är en hög prioritet för oss och vi utvecklar kontinuerligt våra möjligheter för att bekämpa sexuellt utnyttjande av barn (CSAM ) och andra typer av exploaterande innehåll.
Våra förtroende- och säkerhetsteam använder proaktiva verktyg, som t.ex. PhotoDNA-teknologi för att identifiera kända bilder av CSAM och anmäla det till National Center for Missing och Exploited Children (NCMEC). När vi proaktivt upptäcker eller identifierar fall av CSAM bevarar vi dessa och anmäler dem till NCMEC, som sedan granskar och samordnar med rättsväsendet.
Under andra halvåret av 2020 innehöll 2,99 procent av de totala globala konton som vi vidtagit åtgärder mot för överträdelser av våra Community-riktlinjer innehöll CSAM. Av detta upptäckte vi proaktivt och vidtog åtgärder mot 73 procent av innehåll. Totalt raderade vi 47 550 konton för CSAM-överträdelser och i varje fall anmälde innehållet till NCMEC.
Under denna tidsperiod vidtog vi ett antal steg för att ytterligare bekämpa CSAM. Vi antog Googles Child Sexual Abuse Imagery-teknik (CSAI) för videor, vilket gjorde att vi kunde identifiera CSAM-videor och anmäla det till NCMEC. I kombination med vår FotoDNA-detektion för kända CSAM-bilder och branschdatabaser kan vi nu proaktivt upptäcka och anmäla kända videor och bilder till myndigheter. Denna förbättrade förmåga har gjort att vi har blivit mycket effektivare i vår upptäckt – och därmed vår rapportering av detta brottsliga beteende.
Dessutom fortsatte vi att utöka våra partnerskap med branschexperter och la till ytterligare funktioner i appen för att hjälpa till att ge Snapchattare utbildning om riskerna för kontakt med främlingar och hur man anmäler i appen för att varna våra förtroende- och säkerhetsteam gällande alla typer av missbruk. Vi fortsatte att lägga till partners till vårt betrodda flagger-program som ger granskade säkerhetsexperter en konfidentiell kanal för att anmäla nödsituationer, som ett överhängande hot mot livet eller ett fall som involverar CSAM. Vi arbetar också nära dessa partners för att ge säkerhetsutbildning, hälsoresurser och annat rapporteringsstöd så att de effektivt kan stödja Snapchat-communityt.
Dessutom sitter vi i styrelsen för Technology Coalition, en grupp av branschledare inom teknik som försöker förhindra och utrota sexuellt utnyttjande och missbruk av barn på nätet och arbetar ständigt med andra plattformar och säkerhetsexperter för att utforska ytterligare lösningar för att stärka våra kollektiva ansträngningar i detta utrymme.
Totaltsumma raderade konton
47 550
På Snap, att övervaka utvecklingen i detta utrymme och begränsa vektorer för missbruk på vår plattform var en del av vårt U.S. election integrity task force-arbete. Både vår produktarkitektur och design av vår Gruppchattsfunktionalitet begränsar spridningen av skadligt innehåll och möjligheter att organisera sig. Vi erbjuder gruppchattar, men de är begränsade i storlek till flera dussin medlemmar, rekommenderas inte av algoritmer och är inte upptäckbara på vår plattform om du inte är medlem av den gruppen.
Under andra halvåret av 2020 tog vi bort åtta konton för överträdelser av vårt förbud mot terrorism, hatpropaganda och extremistiskt innehåll.
Totaltsumma raderade konton
8
Detta avsnitt ger en översikt över hur våra regler efterlevs i enskilda länder. Våra Community-riktlinjer gäller för allt innehåll på Snapchat—och alla Snapchattare—över hela världen, oavsett plats.
Information för alla andra länder är tillgängligt att ladda ner via den bifogade CSV-filen.
Region
Innehållsrapporteringar*
Innehåll beivrat
Unika konton beivrade
Nordamerika
4 230 320
2 538 416
928 980
Europa
2 634 878
1 417 649
535 649
Övriga världen
3 266 693
1 587 216
431 407
Totalt
10 131 891
5 543 281
1 896 015