Todos los días, los Snapchatters en todo el mundo utilizan nuestra app para hablar con sus amigos cercanos y expresarse creativamente. Nuestro objetivo es diseñar productos y construir tecnología que nutra y respalde las verdaderas amistades en un entorno saludable, seguro y divertido. Estamos trabajando constantemente para mejorar la manera en que lo hacemos, desde nuestras políticas y Lineamientos de la comunidad, nuestras herramientas para prevenir, detectar y tomar acción en contra del contenido dañino, hasta iniciativas que ayuden a educar y empoderar a nuestra comunidad.
Nos comprometemos a proporcionar más transparencia sobre la prevalencia de contenido que infringe lineamientos y la manera en que aplicamos nuestras políticas, la manera en que respondemos a las solicitudes de información de las fuerzas de seguridad y los gobiernos y en los casos en que tratamos de proporcionar más información en el futuro. Publicamos informes de transparencia dos veces al año para proporcionar información sobre estos esfuerzos y estamos comprometidos en hacer que estos informes sean más amplios y útiles para los muchos interesados que se preocupan profundamente por la seguridad en línea y la transparencia.
Este reporte cubre la segunda mitad de 2020 (1 de julio - 31 de diciembre). Al igual que con nuestros informes anteriores, comparte datos sobre nuestras infracciones totales en todo el mundo durante este período; la cantidad de informes de contenido que recibimos y aplicamos en contra de categorías específicas de infracciones; la manera en que apoyamos y cumplimos con las solicitudes de las fuerzas de seguridad y los gobiernos; y nuestros esfuerzos de aplicación de la ley desglosados por país.
Como parte de nuestros esfuerzos en curso para mejorar nuestras acciones de seguridad y nuestros informes de transparencia, este informe también incluye varios elementos nuevos:
La tasa de visualización infractora (VVR) de contenido, que ofrece una mejor comprensión de la proporción de todos los Snaps (o visualizaciones) que incluían contenido que infringía nuestras políticas;
Contenido total y acciones tomadas contra las cuentas con información falsa a nivel mundial, lo que fue especialmente relevante durante este período de tiempo, mientras el mundo continuaba luchando contra una pandemia global y los esfuerzos por socavar las normas cívicas y democráticas; y
Solicitudes de apoyo a las investigaciones de posibles infracciones de marca comercial.
Estamos trabajando en una serie de modificaciones que mejoren nuestra capacidad de proporcionar datos más detallados en informes futuros. Esto incluye la ampliación de las subcategorías de infracciones datos. Por ejemplo, actualmente reportamos infracciones relacionadas con bienes regulados, lo cual incluye las drogas ilegales y las armas. Yendo más adelante, tenemos la intención de incluir cada uno en su propia categoría.
A medida que surjan nuevas amenazas y comportamientos en línea, continuaremos mejorando nuestras herramientas y tácticas para luchar contra ellos. Evaluamos constantemente los riesgos y la manera en que podemos avanzar nuestras capacidades tecnológicas para proteger mejor a nuestra comunidad. Regularmente buscamos la orientación de los expertos en seguridad sobre las formas en que podemos estar siempre un paso adelante de los chicos malos, y estamos agradecidos con nuestra creciente lista de socios que nos ofrecen su invaluable aportación y nos impulsan a ser mejores.
Para obtener más información sobre nuestro enfoque y nuestros recursos para brindar seguridad y privacidad, consulta nuestra pestaña Acerca de los Informes de transparencia en la parte inferior de la página.
Nuestros lineamientos de la comunidad prohiben el contenido dañino, incluyendo información errónea; teorias de conspiración que pudieran causar daños; prácticas engañosas; actividades ilegales incluyendo la compra o venta de drogas ilegales, bienes de contrabando o armas ilegales; discurso de odio, grupos de odio y terrorismo; acoso e intimidación; amenazas, violencia y daño, incluida la glorificación de las lesiones autoprovocadas; contenido sexualmente explícito; y explotación sexual infantil.
Todos los días, se crean más de 5 mil millones de Snaps con nuestra cámara de Snapchat en promedio. Del 1 de julio al 31 de diciembre de 2020, tomamos acción en contra de 5,543,281 de piezas de contenido en todo el mundo que infringieron nuestros lineamientos.
Las acciones tomadas pueden incluir la eliminación del contenido ofensivo; la terminación o limitación de la visibilidad de la cuenta en cuestión; y la remisión del contenido a las fuerzas de seguridad. Si una cuenta es rescindida por violar nuestros Lineamientos, al titular de la cuenta no se le permitirá crear una cuenta nueva o usar Snapchat nuevamente.
Durante el periodo de este informe, vimos una tasa de visualización infractora (VVR) del 0.08 por ciento, lo que significa que de cada 10,000 vistas del contenido de Snap, 8 tenían contenido que infringía nuestros lineamientos.
Ofrecemos herramientas de presentación de informes dentro de la aplicación que permiten a los Snapchatters reportar rápida y fácilmente contenido a nuestros equipos de Seguridad y Confianza, quienes investigan el informe y toman las medidas apropiadas. Nuestros equipos trabajan para tomar medidas lo más rápidamente posible y, en la gran mayoría de los casos, éstas son tomadas dentro de las siguientes dos horas después de recibir un reporte desde de la aplicación.
Además de los informes dentro de la aplicación, también ofrecemos opciones de informes en línea a través de nuestro sitio de ayuda. Además, nuestros equipos están mejorando constantemente las capacidades para detectar proactivamente los actos de violación y contenido ilegal, como el material relacionado con el abuso sexual de niños, el contenido que involucre drogas o armas ilegales o las amenazas de violencia. En este informe proveemos detalles específicos sobre nuestro trabajo para combatir la explotación y el abuso sexual de niños.
Según se muestra en los gráficos siguientes, durante la segunda mitad del 2020, recibimos la mayor cantidad de reportes dentro de la aplicación o solicitudes de apoyo sobre contenido que involucraba la personificación o el contenido sexualmente explícito. Hemos podido mejorar significativamente nuestro tiempo de respuesta a informes de infracciones, en particular para los bienes regulados, lo que incluye las drogas ilegales, los bienes falsificados y las armas; el contenido sexualmente explícito; acoso y hostigamiento.
Total de reportes de contenido*
Total de contenido penalizado
Total de cuentas únicas reguladas
10,131,891
5,543,281
2,100,124
Razón
Informes de contenido*
Contenido penalizado
% del contenido total penalizado
Cuentas únicas penalizadas
Tiempo de respuesta**
Contenido sexualmente explícito
5,839,778
4,306,589
77.7%
1,316,484
0.01
Bienes regulados
523,390
427,272
7.7%
209,230
0.01
Amenaza / Violencia / Daño
882,737
337,710
6.1%
232,705
0.49
Acoso y bullying
723,784
238,997
4.3%
182,414
0.75
Spam
387,604
132,134
2.4%
75,421
0.21
Discurso de odio
222,263
77,587
1.4%
61,912
0.66
Suplantación de Identidad
1,552,335
22,992
0.4%
21,958
0.33
*Los Informes de contenido reflejan las presuntas violaciones denunciadas a través de consultas en nuestra app o en el centro de soporte.
**El Tiempo de respuesta refleja el tiempo promedio en horas para actuar a partir de una denuncia de usuario.
Siempre hemos creído que cuando se trata de contenido dañino, no es suficiente solo pensar en las políticas y la aplicación de las normas, las plataformas deben pensar en su arquitectura fundamental y diseño de producto. Desde el principio, Snapchat fue construido de manera diferente a las plataformas de redes sociales tradicionales, para apoyar nuestra ideología primaria de hablar con amigos cercanos, en lugar de tener un listado de noticias donde cualquiera tiene el derecho de distribuir cualquier cosa a cualquier persona sin moderación.
Como explicamos en nuestra introducción, nuestros lineamientos prohíben claramente la difusión de información falsa que pudiera causar daños, incluyendo información errónea que tenga como objetivo socavar los procesos cívicos, como la supresión de los votantes, afirmaciones médicas no fundamentadas y teorías de conspiración, como la negación de eventos trágicos. Nuestros lineamientos se aplican de manera consistente a todos los Snapchatters, no tenemos excepciones especiales para políticos o figuras públicas.
En nuestra app, Snapchat limita la viralidad, que elimina los incentivos para el contenido dañino y sensacionalista y limita las preocupaciones asociadas con la propagación de contenido dañino. No tenemos un muro de noticias abierto y no permitimos que se 'viralice' contenido que no haya sido revisado. Nuestra plataforma de contenido, Discover, solo incluye contenido revisado de editores de medios y creadores de contenidos.
En noviembre de 2020, iniciamos nuestra nueva plataforma de entretenimiento Spotlight y moderamos proactivamente el contenido para asegurarnos de que cumple con nuestros lineamientos antes de poder llegar a un público grande.
Durante mucho tiempo también hemos adoptado un enfoque diferente ante la publicidad política. Al igual que con todo el contenido en Snapchat, prohibimos información falsa y prácticas engañosas en publicidad. Todos los anuncios políticos, incluyendo aquellos que estén relacionados con las elecciones, emitan anuncios de promoción y anuncios publicitarios deben incluir un mensaje transparente que revele a la organización patrocinadora. Usamos la revisión humana para verificar los anuncios políticos y proporcionar información sobre todos los anuncios que pasen la revisión en nuestra biblioteca de anuncios políticos.
Este enfoque no es perfecto, pero nos ha ayudado a proteger a Snapchat del aumento dramático de la desinformación en los últimos años, una tendencia donde información falsa sobre el COVID-19 y las elecciones presidenciales del 2020 inundó varias plataformas.
De manera mundial, durante este período, Snapchat tomo acciones en contra de 5,841 piezas de contenido y de cuentas por infracciones de nuestros lineamientos sobre información falsa. En informes futuros, tenemos la intención de proporcionar un desglose más detallado sobre las infracciones de información falsa.
Debido a la creciente preocupación por los esfuerzos para socavar el acceso a las elecciones y los resultados de las elecciones en los Estados Unidos en el verano del 2020, conformamos un grupo de trabajo que se centró en evaluar cualquier vector o riesgo potencial de uso indebido de nuestra plataforma, monitorear todos los acontecimientos y trabajar para asegurarnos de que Snapchat fuera una fuente de noticias e información factuales. Estos esfuerzos incluyen:
Actualizar nuestros lineamientos de la comunidad para agregar la manipulación de los medios con fines engañosos, como los 'deepfakes' a nuestras categorías de contenido prohibido.
Trabajar con nuestros socios editoriales de Discover para asegurarnos de que los editores no amplificaran inadvertidamente cualquier información errónea a través de la cobertura de noticias;
Pedir a las Estrellas de Snap cuyo contenido también aparece en Discover, que se aseguren de que cumplen con nuestros lineamientos de la comunidad y no difundieron involuntariamente información falsa.
Tenemos resultados de aplicación claros para cualquier contenido infractor: en lugar de etiquetar el contenido, simplemente lo eliminamos, reduciendo inmediatamente el daño de que se comparta más ampliamente; y
Analizar de manera proactiva las entidades y otras fuentes de información falsa que podrían utilizarse para distribuir dicha información en Snapchat con el fin de evaluar el riesgo y tomar medidas.
A través de la pandemia de COVID-19, hemos adoptado un enfoque similar para proporcionar noticias e información basada en hechos, mediante la cobertura proporcionada por nuestros socios editoriales de Discover, los anuncios al servicio de la comunidad, sesiones de preguntas y respuestas con oficiales de salud pública y personal médico experto, y por medio de herramientas creativas como los Lentes de Realidad Aumentada y los filtros, que recuerdan a los Snapchatters los lineamientos de los expertos en salud pública.
Contenido total y rendición de cuentas
5,841
La explotación de cualquier miembro de nuestra comunidad, especialmente los jóvenes y los menores, es ilegal, inaceptable y está prohibida por nuestros lineamientos. Prevenir, detectar y eliminar el abuso en nuestra plataforma es una prioridad para nosotros y continuamente mejoramos nuestra capacidad para combatir el material relacionado con el abuso sexual infantil (CSAM) y otros tipos de explotación.
Nuestros equipos de seguridad y confianza utilizan herramientas de detección proactivas, como la tecnología de PhotoDNA, para identificar imágenes conocidas del CSAM y reportarlas al Centro Nacional para los Niños Desaparecidos y Explotados (NCMEC). Cuando detectamos o identificamos de manera proactiva los casos de CSAM, los conservamos y los reportamos al NCMEC, quien los revisará y se coordinará con las fuerzas de seguridad.
En la segunda mitad del 2020, el 2.99% de las cuentas totales contra las cuales ejecutamos alguna acción global por infracciones de los lineamientos de la comunidad contenía CSAM. De esto, hemos detectado de manera proactiva y tomado medidas contra el 73% del contenido. En general, eliminamos 47,550 cuentas por infracciones de CSAM y en cada caso reportamos ese contenido al NCMEC.
Durante este período de tiempo, tomamos una serie de medidas para combatir aún más los contenidos CSAM. Adoptamos la tecnología de imágenes de abuso sexual infantil (CSAI) de Google para los videos, lo que nos permite identificar videos de contenido CSAM e informar al NCMEC. Combinada con nuestra herramienta de detección PhotoDNA para las imágenes conocidas de CSAM y las bases de datos hash de la industria, podemos detectar de manera proactiva y reportar a las autoridades las fotos y videos infractores. Esta capacidad mejorada nos ha permitido ser mucho más eficientes en nuestra detección, y por lo tanto, nuestro reporte de esa conducta criminal.
Además, continuamos ampliando nuestras asociaciones con expertos en la industria e implementando funciones adicionales dentro de la aplicación para ayudar a educar a los Snapchatters sobre los riesgos de contacto con los extraños y cómo usar los informes dentro de la aplicación para alertar a nuestros equipos de seguridad y confianza sobre cualquier tipo de abuso. Continuamos agregando socios a nuestro programa de etiquetadores confiables, que proporciona a los expertos en seguridad autorizados, un canal confidencial para reportar escaladas de emergencia, como una amenaza inminente para la vida o un caso que involucre contenido de CSAM. También trabajamos estrechamente con estos socios para proporcionar educación de seguridad, recursos de bienestar y otros apoyos para reportar de manera efectiva y que así puedan apoyar a la comunidad de Snapchat.
Además, servimos en el Consejo de Administración para la Coalición de Tecnología, un grupo de líderes de la industria de la tecnología que buscan evitar y erradicar la explotación y el abuso sexual infantil en línea, y están constantemente trabajando con otras plataformas y expertos en seguridad para explorar soluciones adicionales para fortalecer nuestros esfuerzos colectivos en este espacio.
Eliminaciones totales de cuentas
47,550
En Snap el monitoreo de los avances en este espacio y la mitigación de cualquier vector potencial para el abuso en nuestra plataforma fue parte de nuestro trabajo de los grupos de tareas de integridad electoral de los Estados Unidos. Tanto la arquitectura de nuestros productos como el diseño de nuestra funcionalidad de chat de grupo, limitan la propagación de contenido dañino y las oportunidades para organizarse. Ofrecemos Chats de grupo, pero están limitados en tamaño a varias docenas de miembros, no son recomendados por los algoritmos y no son descubiertos en nuestra plataforma si no eres miembro de ese grupo.
Durante la segunda mitad del 2020, eliminamos ocho cuentas por infracciones a nuestra prohibición contra el terrorismo, discurso de odio y contenido extremista.
Eliminaciones totales de cuentas
8
En esta sección publicamos un resumen de la aplicación de nuestras normas en una muestra de países. Aplicamos nuestros Lineamientos de la comunidad a todo el contenido de Snapchat (y a todos los Snapchatters) en todo el mundo sin importar su ubicación
La información para el resto de los países está disponible para descargar en el archivo CSV adjunto.
Región
Reportes de contenido*
Contenido penalizado
Cuentas únicas penalizadas
América del Norte
4,230,320
2,538,416
928,980
Europa
2,634,878
1,417,649
535,649
Resto del mundo
3,266,693
1,587,216
431,407
Total
10,131,891
5,543,281
1,896,015