Hos Snap bidrar vi til menneskelig framgang ved å styrke menneskers evne til å uttrykke seg, leve i øyeblikket, lære om verden og ha det gøy sammen. Vi bryr oss om velværen til vårt samfunn og når vi bygger produkter, er alltid personvern og sikkerheten til Snapchattere med fra starten av designprosessen.
Vi har klare og grundige retningslinjer som støtter vår misjon ved å skape størst mulig utvalg av selvutfoldelse, samtidig som vi oppfordrer Snapchattere til å bruke våre tjenester på en trygg måte hver dag. Våre Samfunns-retningslinjer forbyr spredningen av feilaktig informasjon som kan gjøre skade, hatefulle ytringer, mobbing, trakassering, ulovlige aktiviteter, seksuelt innhold, grov vold, og mye mer.
Vår åpenhetsrapport gir viktig innsikt i det innholdet som bryter med våre retningslinjer og som vi slår ned på, forespørsler fra myndigheter om Snapchattere sin kontoinformasjon, og andre juridiske meldinger.
For mer informasjon om vår tilnærming til og ressurser for sikkerhet og personvern, vennligst ta en titt på Om åpenhetsrapportering-fanen nederst på siden.
Over fire milliarder Snapper blir skapt hver dag ved hjelp av kameraet vårt. Fra 1. januar 2020 - 30. juni 2020, slo vi ned på innhold 3,872,218 ganger i hele verden for brudd på våre Samfunnsretningslinjer, noe som utgjør mindre enn 0,012 % av alle innlegg på Story. Våre team slår som regel ned på slike brudd raskt, enten det er å fjerne snapper, slette kontoer, rapportere informasjon til National Center for Missing & Exploited Children (NCMEC), eller sende informasjon videre til politimyndigheter. I de fleste tilfeller, slår vi ned på innhold innen 2 timer etter å ha mottatt en rapport i appen.
Samlet antall innholdsrapporter*
Samlet håndhevet innhold
Unike kontoer håndhevet
13 204 971
3 872 218
1 692 859
Reason
Content Reports*
Content Enforced
% of Total Content Enforced
Unique Accounts Enforced
Turnaround Time**
Sexually Explicit Content
5,839,778
4,306,589
77.7%
1,316,484
0.01
Regulated Goods
523,390
427,272
7.7%
209,230
0.01
Threatening / Violence / Harm
882,737
337,710
6.1%
232,705
0.49
Harassment and Bullying
723,784
238,997
4.3%
182,414
0.75
Spam
387,604
132,134
2.4%
75,421
0.21
Hate Speech
222,263
77,587
1.4%
61,912
0.66
Impersonation
1,552,335
22,992
0.4%
21,958
0.33
*The Content Reports reflect alleged violations via our in-app and support inquiries.
**Turnaround Time reflects the median time in hours to action on a user report.
We have always believed that when it comes to harmful content, it isn’t enough just to think about policies and enforcement — platforms need to think about their fundamental architecture and product design. From the beginning, Snapchat was built differently than traditional social media platforms, to support our primary use case of talking with close friends — rather than an open newsfeed where anyone has the right to distribute anything to anyone without moderation.
As we explain in our introduction, our guidelines clearly prohibit the spread of false information that could cause harm, including misinformation that aims to undermine civic processes, like voter suppression, unsubstantiated medical claims, and conspiracy theories such as the denial of tragic events. Our guidelines apply consistently to all Snapchatters — we don’t have special exceptions for politicians or public figures.
Across our app, Snapchat limits virality, which removes incentives for harmful and sensationalized content, and limits concerns associated with the spread of bad content. We don’t have an open newsfeed, and don’t give unvetted content an opportunity to ‘go viral.’ Our content platform, Discover, only features content from vetted media publishers and content creators.
In November of 2020, we launched our new entertainment platform, Spotlight, and proactively moderate content to make sure it complies with our guidelines before it can reach a large audience.
We have long taken a different approach to political advertising as well. As with all content on Snapchat, we prohibit false information and deceptive practices in our advertising. All political ads, including election-related ads, issue advocacy ads, and issue ads, must include a transparent “paid for” message that discloses the sponsoring organization. We use human review to fact check all political ads, and provide information about all ads that pass our review in our Political Ads library.
This approach isn’t perfect, but it has helped us protect Snapchat from the dramatic increase in misinformation in recent years, a trend that has been especially relevant during a period when false information about COVID-19 and the U.S. 2020 presidential election consumed many platforms.
Globally during this period, Snapchat enforced against 5,841 pieces of content and accounts for violations of our false information guidelines. In future reports, we plan to provide more detailed breakdowns of false information violations.
Given the heightened concern about efforts to undermine voting access and the election results in the U.S. in the summer of 2020, we formed an internal Task Force that focused on assessing any potential risk or vectors for misuse of our platform, monitored all developments, and worked to ensure Snapchat was a source for factual news and information. These efforts included:
Updating our community guidelines to add manipulating media for misleading purposes, such as deepfakes, to our categories of prohibited content;
Working with our Discover editorial partners to make sure publishers didn’t inadvertently amplify any misinformation through news coverage;
Asking Snapstrellas, whose content also appears on our Discover content platform to make sure they complied with our Community Guidelines and didn’t unintentionally spread false information;
Having clear enforcement outcomes for any violating content — rather than labeling content, we simply removed it, immediately reducing the harm of it being shared more widely; and
Proactively analyzing entities and other sources of false information that could be used to distribute such information on Snapchat to assess risk and take preventative measures.
Throughout the COVID-19 pandemic, we have taken a similar approach to providing factual news and information, including through coverage provided by our Discover editorial partners, through PSAs and Q&A’s with public health officials and medical experts, and through creative tools, such as Augmented Reality Lenses and filters, reminding Snapchatters of expert public health guidance.
Chart Key
Årsak
Innholdsrapporter*
Håndhevet innhold
Håndhevede unike kontoer
Behandlingstid**
1
Trakassering og mobbing
857,493
175,815
145,445
0,4
2
Hatefull ytring
229,375
31,041
26,857
0,6
3
Etterligning
1,459,467
22,435
21,510
0,1
4
Regulerte varer
520,426
234,527
137,721
0,3
5
Seksuelt eksplisitt innhold
8,522,585
3,119,948
1,160,881
0,2
6
Søppelpost
552,733
104,523
59,131
0,2
7
Trussel/Vold/Skade
1,062,892
183,929
141,314
0,5
*Innholdsrapportene gjenspeiler påståtte brudd gjennom forespørsler via appen og support.
**Behandlingstid gjenspeiler median tid i timer til vi har handlet på bakrunn av en rapport fra bruker.
Utnyttelsen av ethvert individ i vårt samfunn - spesielt unge mennesker - er totalt uakseptabelt og forbudt på Snapchat. Det å forebygge, oppdage og fjerne misbruk på vår plattform er høyt på vår prioriteringsliste, og vi forbedrer konstant vår evne til å motkjempe denne typen ulovlig aktivitet.
Rapporter om materialer knyttet til seksuelt misbruk av barn (CSAM) blir raskt gjennomgått av vårt Trust and Safety-team, og bevis på slik aktivitet fører til sletting av kontoen og rapportering til National Center for Missing & Exploited Children (NCMEC). Vi leverer support døgnet rundt for internasjonale politimyndigheter som kontakter oss for assistanse i saker som involverer savnede eller utsatte mindreårige.
Vi bruker PhotoDNA for å proaktivt identifisere og rapportere opplasting av kjente bilder av seksuell utnyttelse av barn og misbruk, og vi rapporter alle tilfeller til myndighetene. Av det samlede antallet kontoer som er blitt slått ned på for brudd på Samfunns-retningslinjer, fjernet vi 2,99 % på grun av CSAM.
Snap slettet dessuten 70% av disse proaktivt.
Samlet antall kontoer slettet
47,136
Terroristgrupper og hatgrupper er forbudt på Snapchat og vi har ingen toleranse for innhold som anbefaler eller fremsetter voldelig ekstremisme eller terrorisme.
Totalt antall sletting av kontoer
<10
Dette avsnittet gir en oversikt over håndhevelsen av våre regler i individuelle land. Våre Samfunns-retningslinjer gjelder alt innhold på Snapchat, og alle Snapchattere, over hele kloden, uansett lokalisering.
Informasjon for alle andre land er tilgjengelig for nedlasting via den vedlagte CSV-filen.
Region
Innholdsrapporter*
Håndhevet innhold
Håndhevede unike kontoer
Nord-Amerika
5,769,636
1,804,770
785,315
Europa
3,419,235
960,761
386,728
Resten av verden
4,016,100
1,106,687
413,272
Totalt
13,204,971
3,872,218
1,578,985