Hos Snap bidrar vi til menneskelig framgang ved å styrke menneskers evne til å uttrykke seg, leve i øyeblikket, lære om verden og ha det gøy sammen. Vi bryr oss om velværen til vårt samfunn og når vi bygger produkter, er alltid personvern og sikkerheten til Snapchattere med fra starten av designprosessen.

Vi har klare og grundige retningslinjer som støtter vår misjon ved å skape størst mulig utvalg av selvutfoldelse, samtidig som vi oppfordrer Snapchattere til å bruke våre tjenester på en trygg måte hver dag. Våre Samfunns-retningslinjer forbyr spredningen av feilaktig informasjon som kan gjøre skade, hatefulle ytringer, mobbing, trakassering, ulovlige aktiviteter, seksuelt innhold, grov vold, og mye mer.

Vår åpenhetsrapport gir viktig innsikt i det innholdet som bryter med våre retningslinjer og som vi slår ned på, forespørsler fra myndigheter om Snapchattere sin kontoinformasjon, og andre juridiske meldinger.

For mer informasjon om vår tilnærming til og ressurser for sikkerhet og personvern, vennligst ta en titt på Om åpenhetsrapportering-fanen nederst på siden.

Konto / Innholdsbrudd

Over fire milliarder Snapper blir skapt hver dag ved hjelp av kameraet vårt. Fra 1. januar 2020 - 30. juni 2020, slo vi ned på innhold 3,872,218 ganger i hele verden for brudd på våre Samfunnsretningslinjer, noe som utgjør mindre enn 0,012 % av alle innlegg på Story. Våre team slår som regel ned på slike brudd raskt, enten det er å fjerne snapper, slette kontoer, rapportere informasjon til National Center for Missing & Exploited Children (NCMEC), eller sende informasjon videre til politimyndigheter. I de fleste tilfeller, slår vi ned på innhold innen 2 timer etter å ha mottatt en rapport i appen.

Samlet antall innholdsrapporter*

Samlet håndhevet innhold

Unike kontoer håndhevet

13 204 971

3 872 218

1 692 859

Reason

Content Reports*

Content Enforced

% of Total Content Enforced

Unique Accounts Enforced

Turnaround Time**

Sexually Explicit Content

5,839,778

4,306,589

77.7%

1,316,484

0.01

Regulated Goods

523,390

427,272

7.7%

209,230

0.01

Threatening / Violence / Harm

882,737

337,710

6.1%

232,705

0.49

Harassment and Bullying

723,784

238,997

4.3%

182,414

0.75

Spam

387,604

132,134

2.4%

75,421

0.21

Hate Speech

222,263

77,587

1.4%

61,912

0.66

Impersonation

1,552,335

22,992

0.4%

21,958

0.33

*The Content Reports reflect alleged violations via our in-app and support inquiries.

**Turnaround Time reflects the median time in hours to action on a user report.

Expanded Violations

Combating The Spread of False Information

We have always believed that when it comes to harmful content, it isn’t enough just to think about policies and enforcement — platforms need to think about their fundamental architecture and product design. From the beginning, Snapchat was built differently than traditional social media platforms, to support our primary use case of talking with close friends — rather than an open newsfeed where anyone has the right to distribute anything to anyone without moderation.

As we explain in our introduction, our guidelines clearly prohibit the spread of false information that could cause harm, including misinformation that aims to undermine civic processes, like voter suppression, unsubstantiated medical claims, and conspiracy theories such as the denial of tragic events. Our guidelines apply consistently to all Snapchatters — we don’t have special exceptions for politicians or public figures. 

Across our app, Snapchat limits virality, which removes incentives for harmful and sensationalized content, and limits concerns associated with the spread of bad content. We don’t have an open newsfeed, and don’t give unvetted content an opportunity to ‘go viral.’ Our content platform, Discover, only features content from vetted media publishers and content creators. 

In November of 2020, we launched our new entertainment platform, Spotlight, and proactively moderate content to make sure it complies with our guidelines before it can reach a large audience. 

We have long taken a different approach to political advertising as well. As with all content on Snapchat, we prohibit false information and deceptive practices in our advertising. All political ads, including election-related ads, issue advocacy ads, and issue ads, must include a transparent “paid for” message that discloses the sponsoring organization. We use human review to fact check all political ads, and provide information about all ads that pass our review in our Political Ads library

This approach isn’t perfect, but it has helped us protect Snapchat from the dramatic increase in misinformation in recent years, a trend that has been especially relevant during a period when false information about COVID-19 and the U.S. 2020 presidential election consumed many platforms. 

Globally during this period, Snapchat enforced against 5,841 pieces of content and accounts for violations of our false information guidelines. In future reports, we plan to provide more detailed breakdowns of false information violations. 

Given the heightened concern about efforts to undermine voting access and the election results in the U.S. in the summer of 2020, we formed an internal Task Force that focused on assessing any potential risk or vectors for misuse of our platform, monitored all developments, and worked to ensure Snapchat was a source for factual news and information. These efforts included:

  • Updating our community guidelines to add manipulating media for misleading purposes, such as deepfakes, to our categories of prohibited content;

  • Working with our Discover editorial partners to make sure publishers didn’t inadvertently amplify any misinformation through news coverage;

  • Asking Snapstrellas, whose content also appears on our Discover content platform to make sure they complied with our Community Guidelines and didn’t unintentionally spread false information;

  • Having clear enforcement outcomes for any violating content — rather than labeling content, we simply removed it, immediately reducing the harm of it being shared more widely; and

  • Proactively analyzing entities and other sources of false information that could be used to distribute such information on Snapchat to assess risk and take preventative measures. 

Throughout the COVID-19 pandemic, we have taken a similar approach to providing factual news and information, including through coverage provided by our Discover editorial partners, through PSAs and Q&A’s with public health officials and medical experts, and through creative tools, such as Augmented Reality Lenses and filters, reminding Snapchatters of expert public health guidance. 

Chart Key

Årsak

Innholdsrapporter*

Håndhevet innhold

Håndhevede unike kontoer

Behandlingstid**

1

Trakassering og mobbing

857,493

175,815

145,445

0,4

2

Hatefull ytring

229,375

31,041

26,857

0,6

3

Etterligning

1,459,467

22,435

21,510

0,1

4

Regulerte varer

520,426

234,527

137,721

0,3

5

Seksuelt eksplisitt innhold

8,522,585

3,119,948

1,160,881

0,2

6

Søppelpost

552,733

104,523

59,131

0,2

7

Trussel/Vold/Skade

1,062,892

183,929

141,314

0,5

*Innholdsrapportene gjenspeiler påståtte brudd gjennom forespørsler via appen og support.

**Behandlingstid gjenspeiler median tid i timer til vi har handlet på bakrunn av en rapport fra bruker.

Utvidede brudd

Seksuell utnyttelse av barn og misbruk

Utnyttelsen av ethvert individ i vårt samfunn - spesielt unge mennesker - er totalt uakseptabelt og forbudt på Snapchat. Det å forebygge, oppdage og fjerne misbruk på vår plattform er høyt på vår prioriteringsliste, og vi forbedrer konstant vår evne til å motkjempe denne typen ulovlig aktivitet.

Rapporter om materialer knyttet til seksuelt misbruk av barn (CSAM) blir raskt gjennomgått av vårt Trust and Safety-team, og bevis på slik aktivitet fører til sletting av kontoen og rapportering til National Center for Missing & Exploited Children (NCMEC). Vi leverer support døgnet rundt for internasjonale politimyndigheter som kontakter oss for assistanse i saker som involverer savnede eller utsatte mindreårige.

Vi bruker PhotoDNA for å proaktivt identifisere og rapportere opplasting av kjente bilder av seksuell utnyttelse av barn og misbruk, og vi rapporter alle tilfeller til myndighetene. Av det samlede antallet kontoer som er blitt slått ned på for brudd på Samfunns-retningslinjer, fjernet vi 2,99 % på grun av CSAM.

Snap slettet dessuten 70% av disse proaktivt.

Samlet antall kontoer slettet

47,136

Terrorisme

Terroristgrupper og hatgrupper er forbudt på Snapchat og vi har ingen toleranse for innhold som anbefaler eller fremsetter voldelig ekstremisme eller terrorisme.

Totalt antall sletting av kontoer

<10

Oversikt over land

Dette avsnittet gir en oversikt over håndhevelsen av våre regler i individuelle land. Våre Samfunns-retningslinjer gjelder alt innhold på Snapchat, og alle Snapchattere, over hele kloden, uansett lokalisering. 

Informasjon for alle andre land er tilgjengelig for nedlasting via den vedlagte CSV-filen.

Region

Innholdsrapporter*

Håndhevet innhold

Håndhevede unike kontoer

Nord-Amerika

5,769,636

1,804,770

785,315

Europa

3,419,235

960,761

386,728

Resten av verden

4,016,100

1,106,687

413,272

Totalt

13,204,971

3,872,218

1,578,985