Cada día, los Snapfans de todo el mundo utilizan nuestra aplicación para hablar con sus amigos y expresarse de forma creativa. Nuestro objetivo es diseñar productos y crear tecnología que fomente y apoye las amistades reales en un entorno sano, seguro y divertido. Trabajamos constantemente para mejorar las formas en que lo hacemos, desde nuestras políticas y Pautas para la Comunidad hasta nuestras herramientas de prevención, detección y sanción de contenidos nocivos, pasando por las iniciativas que ayudan a educar y capacitar a nuestra comunidad.
Nos comprometemos a ofrecer más transparencia sobre la prevalencia de los contenidos que infringen nuestras pautas, sobre cómo aplicamos nuestras políticas, sobre cómo respondemos a las solicitudes de información de las autoridades, y sobre cómo pretendemos ofrecer más información en el futuro. Publicamos informes de transparencia dos veces al año para dar a conocer estos esfuerzos, y también nos comprometemos a que estos informes sean más completos y útiles para las numerosas partes interesadas que se preocupan por la seguridad y la transparencia en línea.
Este informe comprende el segundo semestre de 2020 (del 1 de julio al 31 de diciembre). Al igual que en nuestros informes anteriores, se comparten datos sobre el total de infracciones que hemos detectado en todo el mundo durante este periodo; el número de denuncias de contenidos que hemos recibido y sancionado en categorías específicas; cómo hemos apoyado y resuelto las solicitudes de las autoridades y los gobiernos; y nuestras actuaciones desglosadas por países.
Como parte de nuestros esfuerzos continuos para mejorar tanto nuestra aplicación en materia de seguridad como nuestros propios informes de transparencia, este informe también incluye varias novedades:
La Tasa de Visualización Infractora (VVR por sus siglas en inglés) del contenido, que permite comprender mejor la proporción de todos los Snaps (o visualizaciones) que contenían contenido que infringía nuestras políticas;
El contenido total y la sanción de las cuentas de la información falsa a nivel mundial, que fue especialmente relevante durante este período de tiempo, ya que el mundo continuó luchando contra una pandemia global y contra los esfuerzos por socavar las normas cívicas y democráticas; y
Solicitudes de apoyo a las investigaciones sobre posibles vulneraciones de marcas registradas.
Estamos trabajando en una serie de mejoras que aumentarán nuestra posibilidad de ofrecer datos más detallados en futuros informes. Esto incluye la ampliación de las subcategorías de datos de las infracciones. Por ejemplo, actualmente informamos de las infracciones relacionadas con productos prohibidos, como las drogas ilegales y las armas. A partir de ahora, tenemos previsto incluir cada una en su propia subcategoría.
A medida que surjan nuevas amenazas y comportamientos en línea, seguiremos mejorando nuestras herramientas y tácticas para combatirlas. Evaluamos constantemente los riesgos y cómo podemos avanzar en nuestras competencias tecnológicas para proteger mejor a nuestra comunidad. Buscamos con frecuencia la orientación de expertos en seguridad y protección sobre cómo podemos ir un paso por delante de los malhechores, y damos las gracias a nuestra creciente lista de socios, que nos proporcionan una información inestimable y nos animan a ser mejores.
Para obtener más información sobre nuestro enfoque y recursos para la seguridad y la privacidad, consulta nuestra pestaña de Informes de transparencia que se encuentra en la parte inferior de la página.
Nuestras Pautas para la Comunidad prohíben los contenidos perjudiciales, como la desinformación, las teorías conspirativas que puedan causar algún daño, las prácticas engañosas, las actividades ilegales, como la compra o venta de drogas ilegales, los productos falsificados, el contrabando o las armas ilegales, la incitación al odio, los grupos de odio y el terrorismo; el acoso y la intimidación, las amenazas, la violencia y el daño, incluida la exaltación de la autolesión, los contenidos sexuales explícitos y la explotación sexual a menores.
Cada día se crean de media más de cinco mil millones de Snaps con la cámara de Snapchat. Entre el 1 de julio y el 31 de diciembre de 2020, sancionamos 5 543 281 contenidos en todo el mundo que infringían nuestras pautas.
Las medidas para hacer cumplir la ley pueden incluir la eliminación del contenido infractor, el cese o la limitación de la visibilidad de la cuenta en cuestión y la derivación del contenido a las autoridades. Si se cancela una cuenta por infringir nuestras Pautas, el dueño o la dueña de la cuenta no podrá crear una nueva cuenta ni volver a utilizar Snapchat.
Durante el semestre del informe, hemos observado una Tasa de Visualización Infractora (VVR) del 0.08 %, lo que significa que de cada 10 000 visitas a contenidos en Snap, ocho incluían contenidos que infringían nuestras pautas.
Ofrecemos herramientas para notificar dentro de la aplicación que permiten a los Snapfans informar rápida y fácilmente sobre el contenido a nuestros equipos de confianza y seguridad, que investigan el informe y toman las medidas adecuadas. Nuestros equipos trabajan para llevar a cabo acciones de control lo más rápidamente posible y, en la gran mayoría de los casos, actúan en las dos horas siguientes a la recepción de una denuncia a través de la aplicación.
Además de los reportes a través de la aplicación, también ofrecemos opciones para informar en línea a través de nuestra página de ayuda. Además, nuestros equipos mejoran constantemente los recursos para detectar de forma proactiva contenidos infractores e ilegales, como el material de abuso sexual a menores, los contenidos que implican drogas ilegales o armas, o las amenazas de violencia. En este informe exponemos detalles específicos de nuestro trabajo para combatir la explotación y el abuso sexual a menores.
Como muestran los gráficos siguientes, durante el segundo semestre de 2020, recibimos el mayor número de informes o peticiones de ayuda a través de la aplicación sobre contenidos que implicaban suplantación de identidad o contenido sexualmente explícito. Hemos podido mejorar significativamente nuestro tiempo de respuesta a las denuncias sobre infracciones, en particular de productos prohibidos, que incluyen drogas ilegales, productos falsificados y armas; contenido sexualmente explícito; y acoso e intimidación.
Informes de contenido total*
Contenido total penalizado
Total de cuentas únicas penalizadas
10 131 891
5 543 281
2 100 124
Razón
Informes de contenido*
Contenido sobre el que se tomaron medidas
% de contenido total sancionado
Cuentas únicas sobre las que se tomaron medidas
Tiempo de respuesta**
Contenido sexualmente explícito
5 839 778
4 306 589
77.7 %
1 316 484
0.01
Bienes regulados
523 390
427 272
7.7 %
209 230
0.01
Amenazas / Violencia / Daño
882 737
337 710
6.1 %
232 705
0.49
Acoso y bullying
723 784
238 997
4.3 %
182 414
0.75
Correo basura
387 604
132 134
2.4 %
75 421
0.21
Discurso de odio
222 263
77 587
1.4 %
61 912
0.66
Suplantación de identidad
1 552 335
22 992
0.4 %
21 958
0.33
*Las denuncias de contenido indican presuntas violaciones a través de nuestras solicitudes de ayuda y en la aplicación.
**El tiempo de respuesta refleja el tiempo medio en horas que tarda en surtir efecto la denuncia de un usuario.
Siempre hemos creído que, cuando se trata de contenidos nocivos, no basta con pensar en las políticas y en su sanción, sino que las plataformas deben pensar en su configuración fundamental y en el diseño del producto. Desde el principio, Snapchat se construyó de forma diferente a las plataformas de redes sociales tradicionales, para apoyar nuestro caso de uso principal de hablar con amigos cercanos, en lugar de una fuente de noticias abierta donde cualquiera tiene el derecho de distribuir cualquier cosa a cualquier persona sin moderación.
Como explicamos al principio, nuestras pautas prohíben claramente la difusión de información falsa que pueda causar daño, incluida la desinformación que pretende socavar los procesos cívicos, como la exclusión de votantes, las afirmaciones médicas sin fundamento y las teorías conspirativas, como la negación de sucesos trágicos. Nuestras pautas se aplican a todos los Snapfans, no tenemos excepciones especiales para políticos o personajes públicos.
En nuestra aplicación, Snapchat limita la viralidad, lo que disminuye el interés de compartir contenido dañino y sensacionalista, y limita las preocupaciones asociadas a la difusión de contenido nocivo. No tenemos un canal de noticias abierto y no concedemos la oportunidad de "hacerse viral" a los contenidos no verificados. Nuestra plataforma de contenidos, Descubrir, solo incluye contenidos de editores de medios y creadores de contenidos seleccionados.
En noviembre de 2020, lanzamos nuestra nueva plataforma de entretenimiento, Destacados, y moderamos proactivamente los contenidos para asegurarnos de que cumplen con nuestras pautas antes de que puedan llegar a una gran audiencia.
Hace tiempo que también adoptamos un enfoque diferente de la publicidad política. Al igual que con todo el contenido de Snapchat, prohibimos la información falsa y las prácticas fraudulentas en nuestra publicidad. Todos los anuncios políticos, incluidos los anuncios relacionados con las elecciones, los de promoción y los temáticos, deben incluir un mensaje transparente "financiado" que revele el organismo patrocinador. Recurrimos a revisiones de personas para comprobar los hechos de todos los anuncios políticos, y proporcionamos información sobre todos los anuncios que pasan nuestra revisión en nuestra Biblioteca de anuncios políticos.
Este enfoque no es perfecto, pero nos ha ayudado a proteger a Snapchat del dramático aumento de la desinformación en los últimos años, una tendencia que ha sido especialmente relevante durante un periodo en el que la información falsa sobre el COVID-19 y las elecciones presidenciales de Estados Unidos de 2020 absorbieron muchas plataformas.
A nivel mundial, durante este período, Snapchat aplicó medidas contra 5841 contenidos y cuentas por infringir nuestras pautas sobre información falsa. En futuros informes, tenemos previsto ofrecer un desglose más detallado de las violaciones de la información falsa.
Dada la creciente preocupación por los esfuerzos por socavar el acceso al voto y los resultados de las elecciones en Estados Unidos en el verano de 2020, formamos un grupo de trabajo interno que se centró en evaluar cualquier riesgo potencial o indicios de uso indebido de nuestra plataforma, supervisó todos los acontecimientos y trabajó para garantizar que Snapchat fuera una fuente de noticias e información objetiva. Estos esfuerzos incluyen:
Actualizar nuestras pautas para la comunidad para añadir la manipulación de los medios de comunicación con fines engañosos, como los denominados deepfakes, a nuestras categorías de contenido prohibido;
Trabajar con nuestros socios editoriales de Descubrir para asegurar que los editores no difundan sin querer ninguna información errónea mediante la cobertura mediática;
Pedir a las Snapstrellas, cuyos contenidos también aparecen en nuestra plataforma Descubrir, que se aseguren de que cumplen nuestras Pautas para la Comunidad y no difunden accidentalmente información falsa;
Disponer de medidas claras de actuación para cualquier contenido infractor: en lugar de etiquetar el contenido, lo eliminamos, reduciendo inmediatamente el riesgo de que se comparta más; y
Analizar de forma proactiva las entidades y otras fuentes de información falsa que podrían ser utilizadas para distribuir dicha información en Snapchat para evaluar el riesgo y tomar medidas preventivas.
Durante la pandemia de COVID-19, hemos adoptado un enfoque similar para proporcionar noticias e información objetiva, incluso a través de la cobertura proporcionada por nuestros socios editoriales de Descubrir, a través de anuncios de servicio público y preguntas y respuestas con funcionarios de salud pública y expertos médicos, y a través de herramientas creativas, como lentes y filtros de realidad aumentada, que acercan a los Snapfans a la orientación de expertos en salud pública.
Total de contenido y cuentas sancionadas
5841
La explotación de cualquier miembro de nuestra comunidad, especialmente de jóvenes y menores, es ilegal, inaceptable y está prohibida por nuestras pautas. La prevención, detección y eliminación de los abusos en nuestra plataforma es una prioridad absoluta para nosotros, y evolucionamos continuamente nuestras capacidades para combatir el material de abuso sexual infantil (CSAM) y otros tipos de contenido explotador.
Nuestros equipos de confianza y seguridad utilizan herramientas de detección proactiva, como la tecnología PhotoDNA, para identificar imágenes de CSAM e informar al Centro Internacional para Niños Desaparecidos y Explotados (NCMEC). Cuando detectamos o identificamos proactivamente casos de CSAM, los guardamos y los comunicamos al NCMEC, que los revisará y coordinará con las autoridades.
En el segundo semestre de 2020, el 2.99 % del total de cuentas a las que sancionamos en todo el mundo por violar nuestras Pautas para la Comunidad contenían CSAM. De ellos, detectamos y actuamos proactivamente en el 73 % de los contenidos. En total, hemos eliminado 47 550 cuentas por abusos sexuales a menores (en inglés, CSAM), y en cada caso hemos informado de ese contenido al NCMEC.
Durante este periodo de tiempo, adoptamos una serie de medidas para seguir combatiendo el CSAM. Adoptamos la tecnología de imágenes de abuso sexual infantil (CSAI) de Google para los vídeos, lo que nos permite identificar los vídeos de CSAM e informar al NCMEC. Junto con nuestra tecnología de detección PhotoDNA para imágenes sospechosas de CSAM y las bases de datos del sector, ahora podemos detectar e informar a las autoridades de forma proactiva sobre imágenes de vídeos y fotografías peligrosas. Esta mejora nos ha permitido ser mucho más eficaces a la hora de detectar y, por tanto, de denunciar esta conducta delictiva.
Además, hemos seguido ampliando nuestras asociaciones con expertos del sector y hemos puesto en marcha nuevas funciones dentro de la aplicación para ayudar a educar a los Snapfans sobre los riesgos del contacto con extraños y sobre cómo utilizar las denuncias dentro de la aplicación para alertar a nuestros equipos de confianza y seguridad sobre cualquier tipo de abuso. Seguimos incorporando socios a nuestro programa de personal de confianza, que proporciona a los expertos en seguridad acreditados un canal confidencial para informar de situaciones de emergencia, como una amenaza inminente de muerte o un caso de CSAM. También colaboramos estrechamente con estos socios para proporcionarles educación en materia de seguridad, recursos de bienestar y otros apoyos de información para que puedan apoyar eficazmente a la comunidad de Snapchat.
Además, formamos parte de la junta directiva de la Coalición Tecnológica, un grupo de líderes de la industria tecnológica que busca prevenir y erradicar la explotación y el abuso sexual a menores en línea, y trabajamos constantemente con otras plataformas y expertos en seguridad para encontrar nuevas soluciones que refuercen nuestros esfuerzos colectivos en este ámbito.
Total de cuentas eliminadas
47 550
En Snap, la supervisión de los avances en este ámbito y la mitigación de cualquier posible factor de abuso en nuestra plataforma formaron parte de nuestro equipo de trabajo sobre la integridad de las elecciones en Estados Unidos. Tanto la configuración de nuestro producto como el diseño del chat de grupo limitan la difusión de contenidos nocivos y las posibilidades de organización. Disponemos de chats de grupo, pero su tamaño está limitado a un número reducido de miembros, no están recomendados por algoritmos y no se pueden encontrar en nuestra plataforma si no se es miembro de ese grupo.
Durante el segundo semestre de 2020, eliminamos ocho cuentas por infringir nuestra política antiterrorismo, la incitación al odio y los contenidos extremistas.
Total de cuentas eliminadas
8
Esta sección ofrece una visión general del cumplimiento de nuestras normas en cada país. Nuestras Pautas para la comunidad se aplican a todo el contenido de Snapchat (y a todos los Snapfans) en todo el mundo, independientemente de su ubicación.
Se puede descargar la información de todos los países a través del archivo CSV adjunto.
Región
Informes de contenido*
Contenido sobre el que se tomaron medidas
Cuentas únicas penalizadas
Norteamérica
4 230 320
2 538 416
928 980
Europa
2 634 878
1 417 649
535 649
Resto del mundo
3 266 693
1 587 216
431 407
Total
10 131 891
5 543 281
1 896 015