logo

Todos os dias, Snapchatters ao redor do mundo usam nosso aplicativo para conversar com seus amigos próximos e se expressar de forma criativa. Nosso objetivo é projetar produtos e construir tecnologia que nutra e apoie amizades verdadeiras em um ambiente saudável, seguro e divertido. Trabalhamos constantemente para melhorar a forma como fazemos isso — desde nossas políticas e diretrizes da comunidade, passando por nossas ferramentas para prevenir, detectar e impor conteúdo prejudicial, até iniciativas que ajudam a educar e capacitar nossa comunidade.

Temos o compromisso de fornecer mais transparência sobre a prevalência de conteúdo que viola nossas diretrizes, como aplicamos nossas políticas, como respondemos às solicitações de informações do governo e das autoridades policiais, e onde procuramos fornecer mais informações no futuro. Publicamos relatórios de transparência duas vezes por ano para fornecer informações sobre esses esforços e também estamos comprometidos em tornar esses relatórios mais abrangentes e úteis para as muitas partes interessadas que se preocupam profundamente com a segurança e transparência online.

Este relatório cobre o segundo semestre de 2020 (1º de Julho – 31 de dezembro) Como em nossos relatórios anteriores, ele compartilha dados sobre nosso total de violações globalmente durante este período; o número de relatórios de conteúdo que recebemos e aplicamos em categorias específicas de violações; como apoiamos e atendemos às solicitações das autoridades policiais e governamentais; e nossos reforços separados por país.

Como parte de nossos esforços contínuos para melhorar nossa aplicação de segurança e nossos próprios relatórios de transparência, este relatório também inclui vários novos elementos:

  • A taxa de visualização violativa (VVR) de conteúdo, que oferece uma melhor compreensão da proporção de todos os Snaps (ou visualizações) que continham conteúdo que violava nossas políticas;

  • Conteúdo total e aplicação de contas de informações falsas em todo o mundo — o que foi especialmente relevante durante este período, enquanto o mundo continuava a lutar contra uma pandemia global e os esforços para minar as normas cívicas e democráticas; e

  • Pedidos de apoio a investigações de potenciais violações de marcas comerciais.

Estamos trabalhando em uma série de melhorias que aumentarão nossa capacidade de fornecer dados mais detalhados em relatórios futuros. Isso inclui expandir em subcategorias de dados violadores. Por exemplo, atualmente relatamos violações relacionadas a bens regulamentados, o que inclui drogas ilegais e armas. No futuro, planejamos incluir cada um em sua própria subcategoria.

Conforme surgem novas ameaças e comportamentos online, continuaremos a aprimorar nossas ferramentas e táticas para combatê-los. Avaliamos constantemente os riscos e como podemos aprimorar nossos recursos tecnológicos para proteger melhor nossa comunidade. Buscamos regularmente a orientação de especialistas em segurança e proteção sobre as maneiras de nos mantermos um passo à frente dos malfeitores — e somos gratos à nossa lista crescente de parceiros que fornecem feedback inestimável e nos incentivam a melhorar.

Para obter mais informações sobre nossa abordagem e recursos para segurança e privacidade, dê uma olhada em nossa guia Sobre relatórios de transparência na parte inferior da página.

Visão geral de violações de conteúdo e conta

Nossas Diretrizes da comunidade proíbem conteúdo prejudicial, incluindo informações incorretas; teorias de conspiração que podem causar danos; práticas enganosas; atividades ilegais, incluindo a compra ou venda de drogas ilegais, produtos falsificados, contrabando ou armas ilegais; discurso de ódio, grupos de ódio e terrorismo; assédio e intimidação; ameaças, violência e danos, incluindo a glorificação da automutilação; conteúdo sexualmente explícito; e exploração sexual infantil.

Todos os dias, mais de cinco bilhões de Snaps são criados usando nossa câmera do Snapchat em média. De 1º de julho a 31 de dezembro de 2020, aplicamos contra 5.543.281 trechos de conteúdo que violavam nossas diretrizes.

As ações de fiscalização podem incluir a remoção do conteúdo ofensivo; encerrar ou limitar a visibilidade da conta em questão; e encaminhar o conteúdo para as autoridades legais. Se uma conta for encerrada por violar nossas Diretrizes, o titular da conta não tem permissão para criar uma nova conta ou usar o Snapchat novamente.

Durante o período do relatório, vimos uma Taxa de Visualização Violativa (VVR) de 0,08 por cento, o que significa que em cada 10.000 visualizações de conteúdo no Snap, oito continham conteúdo que violava nossas diretrizes.

Oferecemos ferramentas de relatório no aplicativo que permitem que os Snapchatters relatem conteúdo de forma rápida e fácil para nossas equipes de confiança e segurança, que investigam o relatório e tomam as medidas adequadas. Nossas equipes trabalham para tomar medidas de execução o mais rápido possível e, na grande maioria dos casos, tomar medidas dentro de duas horas após o recebimento de um relatório no aplicativo.

Além de relatórios no aplicativo, também oferecemos opções de relatórios online por meio de nosso site de suporte. Além disso, nossas equipes estão constantemente aprimorando os recursos para detectar proativamente conteúdo violador e ilegal, como material de abuso sexual infantil, conteúdo que envolva drogas ou armas ilegais ou ameaças de violência. Descrevemos detalhes específicos de nosso trabalho para combater a exploração e o abuso sexual infantil neste relatório.

Conforme mostrado nos gráficos abaixo, durante o segundo semestre de 2020, recebemos a maioria dos relatórios no aplicativo ou solicitações de suporte sobre conteúdo que envolvia falsificação de identidade ou conteúdo sexualmente explícito. Conseguimos melhorar significativamente nosso tempo de resposta a denúncias de violações, em particular para produtos regulamentados, que incluem drogas ilegais, produtos falsificados e armas; conteúdo sexualmente explícito; e assédio e intimidação.

Relatórios de conteúdo total*

Conteúdos totais afetados

Total de contas únicas afetadas

10.131.891

5.543.281

2.100.124

Reason

Content & Account Reports*

Content Enforced

% of Total Content Enforced

Unique Accounts Enforced

Turnaround Time**

Sexually Explicit Content

6,638,110

4,783,518

73.2%

1,441,208

<1

Regulated Goods

776,806

620,083

9.5%

274,883

<1

Threatening / Violence / Harm

1,077,311

465,422

7.1%

288,091

13

Harassment and Bullying

911,198

319,311

4.9%

249,421

27

Spam

560,509

243,729

3.7%

120,898

5

Hate Speech

241,332

121,639

1.9%

92,314

15

Impersonation

1,896,060

75,463

1.2%

43,983

13

*Os Relatórios de conteúdo refletem supostas violações por meio de nossas consultas no aplicativo e suporte no aplicativo e suporte.

**O Tempo de Resposta reflete o tempo médio, em horas, para o processamento de um relatório de usuário.

Violações expandidas

Combate à disseminação de informações falsas

Sempre acreditamos que, quando se trata de conteúdo prejudicial, não é suficiente apenas pensar em políticas e aplicação — as plataformas precisam pensar sobre sua arquitetura fundamental e design de produto. Desde o início, o Snapchat foi construído de forma diferente das plataformas de mídia social tradicionais, para dar suporte ao nosso caso de uso principal de conversar com amigos próximos — em vez de um feed de notícias aberto onde qualquer pessoa tem o direito de distribuir qualquer coisa a qualquer pessoa sem moderação.

Conforme explicamos em nossa introdução, nossas diretrizes proíbem claramente a disseminação de informações falsas que podem causar danos, incluindo informações incorretas que visam minar processos cívicos, como repressão eleitoral, alegações médicas infundadas e teorias da conspiração, como a negação de eventos trágicos. Nossas diretrizes se aplicam de forma consistente a todos os Snapchatters — não temos exceções especiais para políticos ou figuras públicas.

Em nosso aplicativo, o Snapchat limita a viralidade, o que remove os incentivos para conteúdo prejudicial e sensacionalista, e limita as preocupações associadas à disseminação de conteúdo impróprio. Não temos um feed de notícias aberto e não oferecemos ao conteúdo não avaliado a oportunidade de "se tornar viral”. Nossa plataforma de conteúdo, Discover, apresenta apenas conteúdo de editores de mídia e criadores de conteúdo avaliados.

Em novembro de 2020, lançamos nossa nova plataforma de entretenimento, Spotlight, e conteúdo moderado de forma proativa para garantir que esteja em conformidade com nossas diretrizes antes que alcance um grande público.

Há muito também adotamos uma abordagem diferente em relação à propaganda política. Como acontece com todo o conteúdo do Snapchat, proibimos informações falsas e práticas enganosas em nossa publicidade. Todos os anúncios políticos, incluindo anúncios relacionados a eleições, anúncios de defesa de questões e anúncios de questões, devem incluir uma mensagem transparente de “paga por” que divulga a organização patrocinadora. Usamos a revisão humana para verificar todos os anúncios políticos e fornecer informações sobre todos os anúncios que passam em nossa revisão em nossa biblioteca de anúncios políticos.

A abordagem não é perfeita, mas nos ajudou a proteger o Snapchat do aumento dramático na desinformação nos últimos anos, uma tendência que foi especialmente relevante durante um período em que informações falsas sobre COVID-19 e as eleições presidenciais dos Estados Unidos de 2020 consumiram muitas plataformas.

Globalmente durante este período, Snapchat aplicou contra 5.841 trechos de conteúdo e contas por violações de nossas diretrizes de informações falsas. Em relatórios futuros, planejamos fornecer análises mais detalhadas de violações de informações falsas.

Dada a grande preocupação com os esforços para minar o acesso à votação e os resultados das eleições nos EUA no verão de 2020, formamos uma Força-Tarefa interna que se concentrou em avaliar qualquer risco potencial ou vetores para o uso indevido de nossa plataforma, monitoramos todos os desenvolvimentos e trabalhamos para garantir que o Snapchat fosse uma fonte de notícias e informações factuais. Esses esforços incluíram:

  • Atualizar nossas diretrizes da comunidade para adicionar a manipulação de mídia para fins enganosos, como deepfakes, às nossas categorias de conteúdo proibido;

  • Trabalhar com nossos parceiros editoriais do Discover para garantir que os editores não ampliem inadvertidamente qualquer informação incorreta por meio da cobertura de notícias;

  • Snap Stars, cujo conteúdo também aparece em nossa plataforma de conteúdo do Discover para garantir que cumpram nossas diretrizes da comunidade e não espalhem falsa informação involuntariamente;

  • Tendo resultados de aplicação claros para qualquer conteúdo violador - em vez de rotular o conteúdo, simplesmente o removemos, reduzindo imediatamente o dano de ser compartilhado de forma mais ampla;

  • Analisar proativamente entidades e outras fontes de informações falsas que poderiam ser usadas para distribuir essas informações no Snapchat para avaliar o risco e tomar medidas preventivas.

Ao longo da pandemia COVID-19, adotamos uma abordagem semelhante para fornecer notícias e informações factuais, inclusive por meio de cobertura fornecida por nossos parceiros editoriais do Discover, por meio de PSAs e perguntas e respostas com autoridades de saúde pública e especialistas médicos e por meio de ferramentas criativas, como Aumentada Lentes e filtros de realidade, lembrando aos Snapchatters as orientações de especialistas em saúde pública.

Conteudo total e aplicações de conta

5.841

Combate à exploração e ao abuso sexual infantil

A exploração de qualquer membro de nossa comunidade, especialmente jovens e menores, é ilegal, inaceitável e proibida por nossas diretrizes. Prevenir, detectar e eliminar o abuso em nossa plataforma é uma prioridade para nós, e estamos continuamente desenvolvendo nossas capacidades para combater o material de abuso sexual infantil (CSAM) e outros tipos de conteúdo explorador.

Nossas equipes de confiança e segurança usam ferramentas de detecção proativas, como a tecnologia PhotoDNA, para identificar imagens conhecidas de CSAM e relatá-las ao Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC). Em seguida, detectamos ou identificamos proativamente as instâncias de CSAM, preservamos essas ocorrências e as relatamos ao NCMEC, que analisará e coordenará com as autoridades policiais.

No segundo semestre de 2020, 2,99 por cento do total de contas contra as quais tomamos medidas de coação globalmente por violações de nossas Diretrizes da comunidade continham CSAM. A partir disso, detectamos e agimos de forma proativa em 73% do conteúdo. No geral, excluímos 47.550 contas por violações do CSAM e, em cada caso, relatamos esse conteúdo ao NCMEC.

Durante esse período, demos várias medidas para combater ainda mais o CSAM. Adotamos a tecnologia de imagens de abuso sexual infantil (CSAI) do Google para vídeos, o que nos permite identificar vídeos de CSAM e denunciá-los ao NCMEC. Combinado com nossa detecção de PhotoDNA para imagens CSAM conhecidas e bancos de dados de hash da indústria, agora podemos detectar proativamente e relatar às autoridades imagens conhecidas de vídeo e foto. Essa capacidade aprimorada nos permitiu ser muito mais eficientes em nossa detecção - e, portanto, em nosso relato dessa conduta criminosa.

Além disso, continuamos a expandir nossas parcerias com especialistas do setor e lançamos recursos adicionais no aplicativo para ajudar a educar os Snapchatters sobre os riscos do contato com estranhos e como usar relatórios no aplicativo para alertar nossas equipes de confiança e segurança sobre qualquer tipo de Abuso. Continuamos a adicionar parceiros ao nosso programa de sinalizadores de confiança, que fornece a especialistas em segurança avaliados um canal confidencial para relatar escalações de emergência, como uma ameaça iminente à vida ou um caso envolvendo CSAM. Também trabalhamos em estreita colaboração com esses parceiros para fornecer educação sobre segurança, recursos de bem-estar e outros tipos de suporte de relatórios para que possam apoiar de forma eficaz a comunidade Snapchat.

Além disso, atuamos no Conselho de Diretores da Coalizão de Tecnologia, um grupo de líderes da indústria de tecnologia que busca prevenir e erradicar a exploração e o abuso sexual infantil on-line e trabalhamos constantemente com outras plataformas e especialistas em segurança para explorar soluções adicionais para fortalecer nossos esforços coletivos neste espaço.

Total de Contas Excluídas

47.550

Conteúdo terrorista e extremista

Na Snap, monitorar os desenvolvimentos neste espaço e mitigar quaisquer vetores potenciais de abuso em nossa plataforma fazia parte do trabalho de nossa força-tarefa de integridade eleitoral nos EUA. Tanto a arquitetura de nosso produto quanto o design de nossa funcionalidade de Chat de Grupo limitam a disseminação de conteúdo prejudicial e as oportunidades de organização. Oferecemos bate-papos em grupo, mas eles são limitados em tamanho a várias dezenas de membros, não são recomendados por algoritmos e não podem ser encontrados em nossa plataforma se você não for membro desse grupo.

Durante a segunda metade de 2020, removemos oito contas por violações de nossa proibição de terrorismo, discurso de ódio e conteúdo extremista.

Total de Contas Excluídas

8

Visão geral por país

Essa seção dá uma visão geral do cumprimento de nossas regras em cada país. Nossas Diretrizes Comunitárias se aplicam a todo o conteúdo do Snapchat, e a todos os Snapchatters, em todo o mundo, independentemente da localização.

Informações para todos os outros países estão disponíveis para download por meio do CSV em anexo.

Região

Relatórios de conteúdo*

Conteúdo bloqueado

Contas únicas

América do Norte

4.230.320

2.538.416

928.980

Europa

2.634.878

1.417.649

535.649

Resto do Mundo

3.266.693

1.587.216

431.407

Total

10.131.891

5.543.281

1.896.015