Todos los días, los Snapchatters de todo el mundo usan nuestra aplicación para hablar con sus amigos cercanos y expresarse de forma creativa. Nuestro objetivo es diseñar productos y crear una tecnología que alimente y apoye las amistades verdaderas en un entorno saludable, seguro y divertido. Trabajamos constantemente para mejorar las formas de hacerlo, desde nuestras políticas y Pautas para la comunidad, nuestras herramientas para prevenir, detectar y actuar ante contenido dañino, y hasta iniciativas que ayuden a educar y empoderar a nuestra comunidad.
Nos comprometemos a proporcionar más transparencia sobre la prevalencia de contenido que infringe nuestras pautas, la forma en que aplicamos nuestras políticas, la respuesta a las solicitudes de información de las fuerzas de seguridad y los gobiernos, y dónde intentamos proporcionar más información en el futuro. Publicamos informes de transparencia dos veces al año para proporcionar información sobre estos esfuerzos, y también nos comprometemos a hacer que estos informes sean más amplios y de ayuda para todas las partes interesadas que se preocupan profundamente por la seguridad y transparencia en línea.
Este informe abarca la segunda mitad de 2020 (del 1 de julio al 31 de diciembre). Así como nuestros informes anteriores, este comparte datos sobre nuestras infracciones totales a nivel mundial durante este período, la cantidad de denuncias de contenido que recibimos y aplicamos en todas las categorías de infracciones específicas, la forma en que apoyamos y cumplimos las solicitudes de las fuerzas de seguridad y los gobiernos, y la aplicación que ejecutamos desglosada por país.
Como parte de nuestros esfuerzos en curso para mejorar tanto nuestras fuerzas de seguridad como nuestros informes de transparencia, este informe incluye también varios elementos nuevos:
la Tasa de visualización de contenido de videos infractores (VVR), que ofrece una mejor comprensión de la proporción de todos los Snaps (o visualizaciones) que incluyeron contenido que infringió nuestras políticas;
el total de aplicación de información falsa a nivel mundial en cuentas y de contenido, que fue especialmente relevante durante este período, mientras el mundo le luchó contra una pandemia mundial y los esfuerzos para socavar las normas cívicas y democráticas; y
solicitudes de apoyo a las investigaciones sobre posibles infracciones de marcas registradas.
Estamos trabajando en varias mejoras que mejorarán nuestra capacidad de proporcionar datos más detallados en informes futuros. Esto incluye la ampliación mediante la creación de subcategorías de datos infringidos. Por ejemplo, actualmente denunciamos infracciones relacionadas con bienes regulados, incluidas las drogas ilegales y las armas. Más adelante, planeamos incluir a cada una en su propia subcategoría.
A medida que surjan nuevas amenazas y comportamientos en línea, seguiremos mejorando nuestras herramientas y tácticas para combatirlos. Evaluamos constantemente los riesgos y la manera en que podemos evolucionar nuestras capacidades tecnológicas para proteger mejor a nuestra comunidad. Regularmente solicitamos la orientación de expertos en seguridad sobre las maneras en que podemos seguir un paso por delante de actores negativos, y le agradecemos a nuestra lista de socios que no para de crecer, ya que estos nos ofrecen comentarios inestimables y nos empujan para que seamos mejores.
Para obtener más información sobre nuestro enfoque respecto de la seguridad y la privacidad y nuestros recursos, consultá la pestaña Acerca de los informes de transparencia en la parte inferior de la página.
Nuestras Pautas para la comunidad prohíben contenido dañino, incluida la información errónea; teorías conspirativas que pueden causar daños; prácticas engañosas; actividades ilegales, incluida la compra o venta de drogas ilegales, productos falsificados, contrabando o armas ilegales; discursos de odio, grupos de odio y terrorismo; hostigamiento y acoso; amenazas, violencia y daño, incluida la glorificación del daño autoinfligido; contenido sexualmente explícito; y explotación sexual infantil.
Todos los días, se crean en promedio más de 5000 millones de Snaps usando nuestra cámara de Snapchat. Del 1 de julio al 31 de diciembre de 2020, actuamos contra 5 543 281 elementos de contenido a nivel mundial que infringieron nuestras pautas.
Las acciones de aplicación de acciones podrían incluir la eliminación del contenido ofensivo; la rescisión o limitación de la visibilidad de la cuenta en cuestión; y la remisión del contenido a las fuerzas de seguridad. Si se rescinde una cuenta por infringir nuestras Pautas, el titular de la cuenta no está autorizado a crear una cuenta nueva ni a usar Snapchat otra vez.
Durante el período de denuncia, vimos una VVR del 0,08 porciento. Esto significa que de cada 10 000 visualizaciones de contenido de Snap, ocho contienen contenido que infringió nuestras pautas.
Ofrecemos herramientas de denuncia dentro de la aplicación que les permiten a los Snapchatters denunciar de forma rápida y sencilla a nuestros equipos de Confianza y Seguridad, que investigan la denuncia y toman las medidas apropiadas. Nuestros equipos trabajan para tomar medidas de aplicación lo antes posible y, en la gran mayoría de los casos, toman medidas dentro de las dos horas siguientes a la recepción de una denuncia dentro de la aplicación.
Además de las denuncias dentro de la aplicación, también ofrecemos opciones de denuncia en línea a través de nuestro sitio de ayuda. Además, nuestros equipos están mejorando constantemente las capacidades para detectar de manera proactiva el contenido ilegal e infractor, como el material sobre abuso sexual a menores, contenido que involucra drogas ilegales y armas, o amenazas de violencia. Presentamos detalles específicos de nuestro trabajo para combatir el abuso y la explotación sexual de menores en este informe.
Como se detalla en los siguientes cuadros, durante la segunda mitad de 2020, recibimos la mayoría de las denuncias o solicitudes de soporte dentro de la aplicación sobre contenido que involucró suplantación de identidad o contenido sexualmente explícito. Pudimos mejorar de manera considerable nuestro tiempo de respuesta a denuncias de infracciones, en particular en el caso de bienes regulados, que incluyen drogas ilegales, productos falsificados y armas; contenido sexualmente explícito; y acoso y hostigamiento.
Total de denuncias de contenido*
Total de contenido penalizado
Total de cuentas únicas penalizadas
10 131 891
5 543 281
2 100 124
Motivo
Denuncias de contenido*
Contenido penalizado
% de contenido total penalizado
Cuentas únicas penalizadas
Plazo de respuesta**
Contenido sexualmente explícito
5 839 778
4 306 589
77,7 %
1 316 484
0,01
Bienes reglamentados
523 390
427 272
7,7 %
209 230
0,01
Amenazas, violencia, daño
882 737
337 710
6,1 %
232 705
0,49
Acoso y hostigamiento
723 784
238 997
4,3 %
182 414
0,75
Correo no deseado
387 604
132 134
2,4 %
75 421
0,21
Discurso de odio
222 263
77 587
1,4 %
61 912
0,66
Suplantación de identidad
1 552 335
22 992
0,4 %
21 958
0,33
*Las denuncias de contenido reflejan presuntas infracciones realizadas a través de la aplicación y de peticiones de ayuda.
**El plazo de respuesta refleja el tiempo promedio en horas que se emplea para tomar medidas sobre una denuncia de usuario.
Siempre creímos que cuando se trata de contenido dañino, no basta con solo pensar en políticas y aplicación, sino que las plataformas deben pensar en su arquitectura fundamental y diseño del producto. Desde el principio, Snapchat se creó de manera diferente a las plataformas de redes sociales tradicionales, para apoyar nuestro caso de uso principal de hablar con amigos cercanos (en lugar de un feed de noticias abierto en el que cualquier persona tiene derecho a distribuir cualquier cosa a cualquier persona sin moderación).
Tal como explicamos en nuestra introducción, nuestras pautas prohíben claramente la difusión de información falsa que podría causar daños, incluida la información errónea que pretende socavar procesos cívicos, como la represión de votantes, demandas médicas sin fundamento y teorías de conspiración como la negación de eventos trágicos. Nuestras pautas se aplican de manera consistente a todos los Snapchatters (no tenemos excepciones especiales para políticos ni figuras públicas).
En nuestra aplicación, Snapchat limita la viralidad, que elimina los incentivos para contenido dañino y sensacionalista, y limita las preocupaciones asociadas con la difusión de contenido negativo. No tenemos un feed de noticias abierto y no le brindamos a ningún contenido no revisado la posibilidad de viralizarse. Nuestra plataforma de contenido, Discover, solo cuenta con contenido de editores de medios de comunicación y creadores de contenido revisados.
En noviembre de 2020, lanzamos nuestra nueva plataforma de entretenimientos, Destacado, y moderamos el contenido de manera proactiva a fin de asegurarnos de que cumpla nuestras pautas antes de que llegue a grandes audiencias.
También adoptamos un enfoque distinto de la publicidad política. Como ocurre con todo el contenido de Snapchat, prohibimos la información falsa y las prácticas engañosas en publicidad. Todos los anuncios políticos, incluidos aquellos relacionados con elecciones, incidencia política y temas de opinión, deben incluir un mensaje claro que indique cuál es la organización patrocinadora que pagó el anuncio. Usamos revisión por parte de personas para revisar todos los anuncios políticos y brindamos información sobre todos los anuncios que pasan nuestra revisión en nuestra biblioteca de Anuncios políticos.
Este enfoque no es perfecto, pero nos ha ayudado a proteger a Snapchat del aumento dramático de información errónea en los últimos años, tendencia que ha sido especialmente relevante durante un período en que la información falsa sobre COVID-19 y las elecciones presidenciales de Estados Unidos 2020 consumió muchas plataformas.
Durante este periodo, a nivel mundial, Snapchat penalizó 5841 elementos de contenido y cuentas por infracciones de nuestras pautas de información falsa. En informes futuros, planeamos proporcionar desgloses más detallados de infracciones de información falsa.
Dado el mayor grado de preocupación por los esfuerzos para socavar el acceso a votar y los resultados electorales en Estados Unidos en el verano de 2020, formamos un Equipo de tareas interno que se centró en evaluar cualquier riesgo potencial o vectores de uso indebido de nuestra plataforma, monitoreó todos los desarrollos y trabajó para garantizar que Snapchat fuese una fuente de información y noticias fácticas. Estos esfuerzos incluyeron lo siguiente:
actualizar las pautas de nuestra comunidad a fin de agregar la manipulación de medios para fines engañosos, como las falsificaciones, a nuestras categorías de contenido prohibido;
trabajar con nuestros socios editoriales de Discover para asegurarnos de que los editores no amplificaran inadvertidamente ninguna información errónea a través de la cobertura de noticias;
consultar a los Snap Stars, cuyo contenido aparece también en nuestra plataforma de contenido Discover, para asegurarnos de que hayan cumplido las Pautas para la comunidad y no divulguen información falsa de forma no intencionada;
tener resultados claros de penalidades por cualquier contenido infractor (en lugar de etiquetar contenido, lo eliminamos de inmediato, reduciendo el daño de que se comparta de manera más amplia); y
analizar de manera proactiva las entidades y otras fuentes de información falsa que podrían utilizarse para distribuir dicha información en Snapchat para evaluar el riesgo y tomar medidas preventivas.
A lo largo de la pandemia de COVID-19, hemos adoptado un enfoque similar para proporcionar noticias e información fáctica, incluso a través de la cobertura proporcionada por nuestros socios editoriales Discover, anuncios de servicio público y preguntas y respuestas con oficiales de la salud pública y expertos médicos, y a través de herramientas creativas, como Lentes de realidad aumentada y filtros, recordando a los Snapchatters la orientación de los miembros expertos de la salud pública.
Total de aplicación de acción en cuenta y contenido
5841
La explotación de cualquier miembro de nuestra comunidad, especialmente de jóvenes y menores, es ilegal, inaceptable y está prohibida según nuestras pautas. Prevenir, detectar y eliminar el abuso en nuestra plataforma es una prioridad primordial para nosotros. Evolucionamos continuamente nuestras capacidades para combatir el material sobre abuso sexual a menores (CSAM) y otros tipos de contenido de explotación.
Nuestros equipos de Confianza y Seguridad usan herramientas de detección proactivas, como la tecnología de PhotoDNA para identificar imágenes conocidas de CSAM y denunciarlas al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC). Cuando detectamos o identificamos de manera proactiva casos de CSAM, los protegemos y denunciamos al NCMEC, que luego revisará y coordinará con las fuerzas de seguridad.
En la segunda mitad de 2020, penalizamos al 2,99 por ciento del total de cuentas a nivel mundial por infracciones con respecto a CSAM según indican nuestras Pautas para la comunidad. De esta cantidad, detectamos de manera proactiva y tomamos medidas sobre el 73 por ciento del contenido. En total, eliminamos 47 550 cuentas por infracciones de CSAM y en cada caso denunciamos dicho contenido al NCMEC.
Durante este período de tiempo, tomamos varias medidas para combatir el CSAM. Adoptamos la tecnología de Google de Imágenes de abuso sexual de menores (CSAI) para videos, lo que nos permitió identificar videos con CSAM y denunciarlos al NCMEC. En combinación con nuestra detección de PhotoDNA para imágenes conocidas de CSAM y bases de datos con función hash, ahora podemos detectar de manera proactiva y denunciar a las autoridades las fotos y videos conocidos. Esta capacidad mejorada nos ha permitido llegar a ser mucho más eficientes en nuestra detección y, por lo tanto, en la denuncia de esta conducta criminal.
Además, seguimos ampliando nuestras asociaciones con expertos de la industria e implementamos funciones adicionales dentro de la aplicación para ayudar a educar a los Snapchatters sobre los riesgos del contacto con extraños y la manera de usar la denuncia dentro de la aplicación para alertar a nuestros equipos de Confianza y Seguridad sobre cualquier tipo de abuso. Seguimos agregando socios a nuestro programa de informantes de confianza, que les brinda expertos en seguridad verificados un canal confidencial para denunciar escalaciones de emergencia, como una amenaza inminente para la vida o un caso que involucre CSAM. También trabajamos de cerca con estos socios para proporcionar educación de seguridad, recursos de bienestar y otros servicios de denuncia de manera que puedan ayudar de manera efectiva a la comunidad de Snapchat.
Además, trabajamos en la Junta de Directores de la Coalición de Tecnología, un grupo de líderes de la industria de tecnología que buscan evitar y erradicar la explotación y el abuso sexual virtuales de menores, y que trabajan constantemente con otras plataformas y expertos de seguridad para explorar soluciones adicionales para fortalecer nuestros esfuerzos colectivos en este espacio.
Total de cuentas eliminadas
47 550
En Snap, el seguimiento de desarrollos en este espacio y la mitigación de cualquier vector potencial de abuso en nuestra plataforma fue parte del trabajo de nuestro equipo de tareas de integridad electoral de Estados Unidos. Tanto la arquitectura de nuestro producto como el diseño de la funcionalidad de nuestro Chat de grupo limitan la difusión de contenido dañino y las oportunidades para organizarse. Ofrecemos, Grupos de chat, pero se limitan en tamaño a varias docenas de miembros, no se recomiendan por algoritmos, y no se pueden descubrir en nuestra plataforma si no sos miembro de este grupo.
Durante la segunda mitad de 2020, eliminamos ocho cuentas por infracciones de nuestra prohibición de terrorismo, discurso de odio y contenido de extremistas.
Total de cuentas eliminadas
8
En esta sección se ofrece un resumen general de la aplicación de nuestras normas en distintos países. Nuestras Pautas para la comunidad rigen todo el contenido en Snapchat y a todos los Snapchatters, en todo el mundo, independientemente de la ubicación.
Se puede descargar información para todos los demás países a través del archivo CSV adjunto.
Región
Denuncias de contenido*
Contenido penalizado
Cuentas únicas penalizadas
América del Norte
4 230 320
2 538 416
928 980
Europa
2 634 878
1 417 649
535 649
Resto del mundo
3 266 693
1 587 216
431 407
Total
10 131 891
5 543 281
1 896 015