logo

يستخدم مستخدمو Snapchat حول العالم تطبيقنا بشكل يومي للتحدث مع أصدقائهم المقربين والتعبير عن أنفسهم بشكل إبداعي. يكمن هدفنا في تصميم منتجات وبناء تكنولوجيا من شأنها تحسين الصداقات الحقيقية ودعمها في بيئة صحية وآمنة وممتعة. نعمل باستمرار على تحسين طرق قيامنا بذلك - بداية من سياساتنا وتعليمات التواصل الاجتماعي وصولاً إلى أدواتنا الخاصة بمنع المحتوى الضار وكشفه وعمليات الإنفاذ المتعلقة به، وكذلك المبادرات التي تساعد في تثقيف مجتمعنا وتمكينه.

نلتزم بالتحلي بمزيد من الشفافية بشأن انتشار المحتوى الذي ينتهك تعليماتنا، وكيف ننفذ سياساتنا، وكيف نستجيب لطلبات إنفاذ القانون والطلبات الحكومية للحصول على المعلومات، والمواضع التي نسعى فيها إلى تقديم بيانات أكثر مستقبلاً. ننشر تقارير الشفافية مرتين سنويًا بهدف تقديم بيانات أكثر بشأن هذه الجهود، كما نلتزم بجعل هذه التقارير أكثر شمولاً وإفادة بالنسبة للعديد من أصحاب المصلحة المهتمين بالشفافية والسلامة على الإنترنت اهتمامًا بالغًا.

يتناول هذا التقرير النصف الثاني من عام ٢٠٢٠ (من ١ يوليو إلى ٣١ ديسمبر). على غرار تقاريرنا السابقة، يُبين هذا التقرير بيانات حول إجمالي الانتهاكات لدينا خلال هذه الفترة على مستوى العالم؛ وعدد تقارير المحتوى التي تلقيناها وفرضناها على فئات معينة من الانتهاكات؛ وكيف دعمنا ولبينا طلبات إنفاذ القانون والطلبات الحكومية؛ وعمليات الإنفاذ التي أجريناها مُقسمة حسب الدولة.

ومن ضمن جهودنا المستمرة لتحسين كل من إنفاذ السلامة وتقارير الشفافية نفسها، يتضمن هذا التقرير أيضًا عدة عناصر جديدة:

  • معدل مشاهدة المخالفة (VVR) في المحتوى، وذلك يوفر فهمًا أفضل لنسبة جميع الـ Snaps (أو المشاهدات) التي بها محتوى ينتهك سياساتنا؛

  • إجمالي عمليات إنفاذ المحتوى والحسابات بالنسبة للمعلومات الكاذبة على مستوى العالم - والتي كانت ذات صلة خلال هذه الفترة الزمنية على نحو خاص، حيث واصل العالم محاربة جائحة عالمية وبذل جهود لتقويض المعايير المدنية والديمقراطية؛

  • طلبات دعم التحقيقات في الانتهاكات المحتملة للعلامات التجارية.

نعمل على إجراء عدد من التحسينات التي ستعزز قدرتنا على تقديم بيانات أكثر تفصيلاً في التقارير المستقبلية. يتضمن ذلك زيادة الفئات الفرعية للبيانات المُخالفة. على سبيل المثال، نُبلغ حاليًا عن انتهاكات تتعلق بالسلع الخاضعة للرقابة، ويشمل ذلك الأسلحة والعقاقير المحظورة. نخطط لتضمين كل من ذلك في فئته الفرعية من الآن فصاعدًا.

مع ظهور تهديدات وسلوكيات جديدة على الإنترنت، سنواصل تحسين أدواتنا وتكتيكاتنا لمكافحتها. نُجري تقييمًا للمخاطر بصفة مستمرة، وكيف نستطيع تطوير قدراتنا التكنولوجية لحماية مجتمعنا بشكل أفضل. نطلب بصفة منتظمة توجيهًا من خبراء الأمن والسلامة بشأن الطرق التي نستطيع من خلالها التفوق على الجهات الفاعلة السيئة - ونشعر بالامتنان تجاه قائمتنا المتزايدة من الشركاء ممن يقدمون تعليقات لا تُقدر بثمن ويدفعوننا إلى تحقيق الأفضل.

لمعرفة معلومات أكثر عن نهجنا ومواردنا المتعلقة بالسلامة والخصوصية، يُرجى إلقاء نظرة على علامة تبويب نبذة عن تقارير الشفافية الموجودة أسفل الصفحة.

نظرة عامة على انتهاكات المحتوى والحسابات

تحظر تعليمات التواصل الاجتماعي لدينا المحتوى الضار، بما في ذلك المعلومات المضللة؛ ونظريات المؤامرة التي قد تُسبب ضررًا؛ والممارسات الخادعة؛ والأنشطة غير القانونية، بما فيها شراء أو بيع العقاقير المحظورة أو السلع المقلدة أو المواد المهربة أو الأسلحة المحظورة؛ وخطاب الكراهية والجماعات التي تحض على الكراهية والإرهاب؛ والتحرش والتنمر؛ والتهديدات والعنف والأذى، بما في ذلك تمجيد إيذاء النفس؛ والمحتوى الجنسي الصريح؛ والاستغلال الجنسي للأطفال.

في المتوسط، يتم إنشاء أكثر من خمسة ملايين Snaps يوميًا باستخدام كاميرا Snapchat. خلال الفترة من ١ يوليو إلى ٣١ ديسمبر ٢٠٢٠، فرضنا عقوبات على ٥٥٤٣٢٨١ محتوى على مستوى العالم بسبب انتهاك تعليماتنا.

قد تشمل إجراءات الإنفاذ إزالة المحتوى المسيء؛ وإنهاء رؤية الحساب المعني أو تقييدها؛ وإحالة المحتوى إلى سلطات إنفاذ القانون. في حال إنهاء حساب بسبب انتهاك تعليماتنا، لا يُسمح لصاحب الحساب بإنشاء حساب جديد أو استخدام Snapchat مُجددًا.

لاحظنا، خلال الفترة المشمولة بالتقرير، بلوغ معدل مشاهدة المخالفة (VVR) نسبة قدرها ٠.٠٨ بالمائة، أي أنه من بين كل ١٠٠٠٠ مشاهدة للمحتوى على Snap، توجد ثماني مشاهدات لمحتوى ينتهك تعليماتنا.

نوفر أدوات الإبلاغ داخل التطبيق، وهي تجعل مستخدمي Snapchat قادرين على الإبلاغ عن المحتوى بسرعة وسهولة إلى فرق الثقة والسلامة لدينا، وهم يحققون في التقرير ويتخذون الإجراء المناسب. تعمل فرقنا على اتخاذ إجراءات الإنفاذ في أسرع وقت ممكن، وتُتخذ الإجراءات في غضون ساعتين من تلقي تقرير داخل التطبيق بالنسبة للغالبية العظمى من الحالات.

فضلاً عن الإبلاغ داخل التطبيق، نوفر أيضًا خيارات الإبلاغ عبر الإنترنت من خلال موقع الدعم الخاص بنا. علاوة على هذا، تعمل فرقنا باستمرار على تحسين قدرات الكشف الاستباقي عن المحتوى المخالف وغير القانوني، مثل مواد الاعتداء الجنسي على الأطفال أو المحتوى الذي أسلحة غير مشروعة أو عقاقير محظورة أو تهديدات بالعنف. نبين في هذا التقرير تفاصيل محددة بشأن عملنا على مكافحة الاستغلال الجنسي للأطفال والاعتداء عليهم.

كما هو موضح في الرسوم البيانية أدناه، كانت معظم حالات الإبلاغ داخل التطبيق أو طلبات الدعم، خلال النصف الثاني من عام ٢٠٢٠، بشأن المحتوى الذي يتضمن انتحال الهوية أو المحتوى الجنسي الصريح. استطعنا تحسين وقت استجابتنا لتقارير الانتهاكات بشكل كبير، لا سيما فيما يتعلق بالسلع الخاضعة للرقابة، بما فيها العقاقير المحظورة والسلع المقلدة والأسلحة؛ والمحتوى الجنسي الصريح؛ والتحرش والتنمر.

إجمالي الإبلاغات عن المحتوى*

إجمالي المحتوى المُتّخَذ إجراء ضدّه

إجمالي الحسابات الفريدة المُتّخَذ إجراء ضدّها

١٠١٣١٨٩١

٥٥٤٣٢٨١

٢١٠٠١٢٤

السبب

الإبلاغات عن المحتوى*

المحتوى المتّخذ إجراء ضدّه

النسبة المئوية من إجمالي المحتوى المتخذ إجراءات ضده

الحسابات الفريدة المتّخذ إجراء ضدّها

وقت الاستجابة**

المحتوى الجنسي الصريح

٥٨٣٩٧٧٨

٤٣٠٦٥٨٩

٧٧.٧%

١٣١٦٤٨٤

٠.٠١

السلع الخاضعة للتنظيم

٥٢٣٣٩٠

٤٢٧٢٧٢

٧.٧%

٢٠٩٢٣٠

٠.٠١

التهديد/العنف/الإيذاء

٨٨٢٧٣٧

٣٣٧٧١٠

٦.١%

٢٣٢٧٠٥

٠.٤٩

التحرش والتنمّر

٧٢٣٧٨٤

٢٣٨٩٩٧

٤.٣%

١٨٢٤١٤

٠.٧٥

الرسائل العشوائية

٣٨٧٦٠٤

١٣٢١٣٤

٢.٤%

٧٥٤٢١

٠.٢١

خطاب الكراهية

٢٢٢٢٦٣

٧٧٥٨٧

١.٤%

٦١٩١٢

٠.٦٦

انتحال الشخصية

١٥٥٢٣٣٥

٢٢٩٩٢

٠.٤%

٢١٩٥٨

٠.٣٣

*تبين تقارير المحتوى الانتهاكات المزعومة عبر استفساراتنا داخل التطبيق والدعم.

**يعكس وقت الاستجابة متوسط الوقت بالساعات المستغرق لاتخاذ إجراء حيال تقرير المستخدم.

الانتهاكات الشائعة

مكافحة انتشار المعلومات الكاذبة

لطالما اعتقدنا أن الأمر عندما يتعلق بالمحتوى الضار، فإنه لا يكفي مجرد التفكير في السياسات وعمليات الإنفاذ - بل تحتاج الأنظمة الأساسية إلى التفكير بشأن بنيتها الأساسية وتصميم منتجاتها. تم إنشاء Snapchat منذ البداية بصورة مختلفة عن منصات التواصل الاجتماعي التقليدية، وذلك لدعم حالة الاستخدام الأساسية المتمثلة في التحدث مع الأصدقاء المقربين - بدلاً من ملف الأخبار المفتوح الذي يحق فيه لأي شخص إخبار أي شيء لأي شخص دون اعتدال.

كما ذكرنا في مقدمتنا، تحظر تعليماتنا بوضوح نشر المعلومات الكاذبة التي قد تسبب ضررًا، بما في ذلك المعلومات المضللة التي تهدف إلى تقويض العمليات المدنية، مثل قمع الناخبين، والادعاءات الطبية التي لا أساس لها، ونظريات المؤامرة مثل إنكار الأحداث المأساوية. تُطبق تعليماتنا باستمرار على جميع مستخدمي Snapchat - لا توجد لدينا استثناءات خاصة للسياسيين أو الشخصيات العامة.

يعمل Snapchat على الحد من الانتشار على مستوى تطبيقنا، مما يُزيل الجوانب المُحفزة للمحتوى الضار والمثير، ويحد من المخاوف المرتبطة بانتشار المحتوى السيئ. لا يوجد لدينا موجز أخبار مفتوح، ولا نمنح المحتوى المُعتمد فرصة "للانتشار". لا تعرض منصة اكتشف، منصة المحتوى لدينا، سوى محتوى ناشري الوسائط وصانعي المحتوى المُعتمدين.

في نوفمبر ٢٠٢٠، أطلقنا منصتنا الترفيهية الجديدة، منصة "الأضواء"، وراجعنا المحتوى بشكل استباقي للتأكد من توافقه مع تعليماتنا قبل وصوله إلى جمهور كبير.

كما اتبعنا نهجًا مختلفًا للإعلانات السياسية منذ فترة طويلة. على غرار جميع المحتوى الموجود على Snapchat، نحظر المعلومات الخاطئة والممارسات الخادعة في إعلاناتنا. يجب أن تتضمن جميع الإعلانات السياسية رسالة شفافة مفادها أنها "مدفوعة الثمن" وتُفصح عن المؤسسة الراعية، بما في ذلك الإعلانات المتعلقة بالانتخابات وإعلانات المناصرة وإعلانات القضايا. نستخدم أسلوب المراجعة البشرية للتحقق من صحة جميع الإعلانات السياسية، ونقدم معلومات عن جميع الإعلانات التي اجتازت مراجعتنا في مكتبة الإعلانات السياسية.

لا يُعتبر هذا النهج مثاليًا، لكنه ساعدنا في حماية Snapchat من الزيادة الهائلة في المعلومات المضللة خلال السنوات الأخيرة، وهو اتجاه كان ذا صلة خاصة خلال فترة انتشار معلومات خاطئة عن كوفيد-١٩ والانتخابات الرئاسية الأمريكية ٢٠٢٠ في العديد من المنصات.

على الصعيد العالمي خلال هذه الفترة، نفذ Snapchat عمليات إنفاذ ضد ٥٨٤١ محتوى وحساب بسبب انتهاك تعليماتنا بشأن المعلومات الخاطئة. بالنسبة للتقارير المستقبلية، نخطط تقديم تحليل أكثر تفصيلاً لانتهاكات المعلومات الخاطئة.

يوجد قلق متزايد بشأن الجهود المبذولة لتقويض الوصول إلى التصويت ونتائج الانتخابات في الولايات المتحدة في صيف عام ٢٠٢٠، ولذلك شكلنا فريق عمل داخلي انصب تركيزه على تقييم أي مخاطر أو توجهات محتملة لسوء استخدام منصتنا ورصد جميع التطورات وعمل على التأكد من كون Snapchat مصدرًا للأخبار والمعلومات الحقيقية. شملت هذه الجهود:

  • تحديث تعليمات التواصل الاجتماعي لإضافة التلاعب بالوسائط لأغراض مضللة، مثل التزييف العميق، إلى فئات المحتوى المحظور لدينا؛

  • العمل مع شركاء التحرير في منصة اكتشف بهدف التأكد من عدم التضخيم غير المتعمد من جانب الناشرين لأي معلومات مضللة من خلال التغطية الإخبارية؛

  • توجيه طلب إلى Snap Stars، ممن يظهر محتواهم أيضًا في محتوى منصة اكتشف، للتأكد من امتثالهم لتعليمات التواصل الاجتماعي وعدم نشر معلومات خاطئة عن غير عمد؛

  • الحصول على نتائج إنفاذ واضحة بالنسبة لأي محتوى مخالف - بدلاً من تصنيف المحتوى، قمنا ببساطة بإزالته، مما قلل الضرر الناجم عن مشاركته على نطاق أوسع بصورة فورية؛

  • التحليل الاستباقي للكيانات والمصادر الأخرى للمعلومات الخاطئة، والتي قد تُستخدَم لنشر مثل هذه المعلومات على Snapchat، وذلك بهدف تقييم المخاطر واتخاذ التدابير الوقائية.

طوال فترة جائحة كوفيد-١٩، اتبعنا نهجًا مشابهًا لتقديم الأخبار والمعلومات الحقيقية، بما في ذلك من خلال التغطية التي يقدمها شركاء التحرير في منصة اكتشف، ومن خلال إعلانات الخدمة العامة والأسئلة والأجوبة بالتعاون مع عدد من مسؤولي الصحة العامة والخبراء الطبيين، ومن خلال أدوات التصميم، مثل فلاتر وعدسات الواقع المُعزز، لتذكير مستخدمي Snapchat بإرشادات خبراء الصحة العامة.

إجمالي عمليات إنفاذ المحتوى والحسابات

٥٨٤١

مكافحة الاستغلال الجنسي للأطفال والاعتداء عليهم

يُعتبر استغلال أي فرد من أفراد مجتمعنا، وخاصة الشباب والقصر، أمرًا غير قانوني وغير مقبول ومحظور بموجب تعليماتنا. يُعتبر منع الاعتداء وكشفه والقضاء عليه على منصتنا أولوية قصوى بالنسبة لنا، ونعمل باستمرار على تطوير قدراتنا لمكافحة مواد الاعتداء الجنسي على الأطفال (CSAM) وغير ذلك من أنواع المحتوى الاستغلالي.

تستخدم فرق السلامة والأمان أدوات كشف استباقية، مثل تقنية PhotoDNA، لتحديد الصور المعروفة بمواد الاعتداء الجنسي على الأطفال وإبلاغ المركز الوطني للأطفال المفقودين والمستغلين (NCMEC) عنها. عندما نكشف أو نحدد مواد الاعتداء الجنسي على الأطفال بشكل استباقي، فإننا نحتفظ بها ونبلغ المركز الوطني للأطفال المفقودين والمستغلين عنها، والذي سيقوم بعد ذلك بمراجعتها والتنسيق مع سلطات إنفاذ القانون.

خلال النصف الثاني من عام ٢٠٢٠، احتوت ٢.٩٩ بالمائة من إجمالي الحسابات على مستوى العالم، التي اتخذنا ضدها إجراءات إنفاذ بسبب انتهاكات تعليمات التواصل الاجتماعي، على مواد اعتداء جنسي على الأطفال. من بين تلك الحسابات، كشفنا الأمر بشكل استباقي واتخذنا إجراءات فيما يبلغ ٧٣ بالمائة من المحتوى. بشكل عام، حذفنا ٤٧٥٥٠ حسابًا بسبب انتهاكات مواد الاعتداء الجنسي على الأطفال، وأبلغنا المركز الوطني للأطفال المفقودين والمستغلين عن هذا المحتوى في كل حالة من الحالات.

خلال هذه الفترة الزمنية، اتخذنا عددًا من الخطوات لمواصلة مكافحة مواد الاعتداء الجنسي على الأطفال. استخدمنا تقنية صور الاعتداء الجنسي على الأطفال (CSAI) من Google مع مقاطع الفيديو، مما جعلنا قادرين على تحديد مقاطع فيديو مواد الاعتداء الجنسي على الأطفال وإبلاغ المركز الوطني للأطفال المفقودين والمستغلين عنها. بالإضافة إلى الكشف باستخدام PhotoDNA عن صور مواد الاعتداء الجنسي على الأطفال المعروفة وقواعد بيانات التجزئة في المجال، نستطيع الآن الكشف بشكل استباقي وإبلاغ السلطات عن الفيديو والصور المعروفة. جعلتنا هذه القدرة المعززة قادرين على تحقيق كفاءة أكثر في عمليات الكشف - وبالتالي إبلاغنا عن هذا السلوك الإجرامي.

علاوة على هذا، واصلنا توسيع شراكاتنا مع خبراء الصناعة وطرحنا ميزات إضافية داخل التطبيق بهدف المساعدة في تثقيف مستخدمي Snapchat بشأن مخاطر الاتصال مع الغرباء وكيفية استخدام الإبلاغ داخل التطبيق لتنبيه فرق الثقة والسلامة لدينا بخصوص أي نوع من أنواع الاعتداء. واصلنا إضافة شركاء إلى برنامج "المُخبر الموثوق فيه"، والذي يوفر لخبراء السلامة المعتمدين قناة سرية للإبلاغ عن تصعيد حالات الطوارئ، مثل تهديد وشيك للحياة أو حالة تتعلق بمواد الاعتداء الجنسي على الأطفال. كما نعمل عن كثب مع هؤلاء الشركاء بهدف توفير التثقيف في مجال السلامة، وموارد العافية، وغير ذلك من وسائل دعم الإبلاغ حتى يتمكنوا من دعم مجتمع Snapchat دعمًا فعالاً.

علاوة على هذا، نُعتبر أحد أعضاء مجلس إدارة تحالف التكنولوجيا، وهو مجموعة تضم قادة مجال التكنولوجيا ممن يسعون إلى منع الاستغلال الجنسي للأطفال والاعتداء عليهم عبر الإنترنت واستئصال ذلك، ويعملون باستمرار مع منصات أخرى وعدد من خبراء السلامة بهدف استكشاف حلول إضافية لتعزيز جهودنا الجماعية في هذا الفضاء.

إجمالي الحسابات المحذوفة

٤٧٥٥٠

المحتوى الإرهابي والمتطرف

في Snap، كانت مراقبة تطورات هذا المجال والتخفيف من أي توجهات محتملة لسوء الاستخدام على منصتنا جزءًا من عمل فريق العمل الخاص بنزاهة الانتخابات في الولايات المتحدة. تعمل كل من بنية منتجاتنا وتصميم وظيفة الدردشة الجماعية على الحد من انتشار المحتوى الضار وفرص التنظيم. نوفر خاصية الدردشات الجماعية، إلا أنها تقتصر على عشرات الأعضاء، ولا تنصح بها الخوارزميات، وغير قابلة للاكتشاف على منصتنا إن لم تكن عضوًا في تلك المجموعة.

خلال النصف الثاني من عام ٢٠٢٠، أزلنا ثمانية حسابات بسبب انتهاك حظرنا للإرهاب وخطاب الكراهية والمحتوى المتطرف.

إجمالي الحسابات المحذوفة

٨

نظرة عامة بخصوص الدولة

يُلقي هذا القسم نظرة عامة على تطبيق قواعدنا في دول معينة. تنطبق الإرشادات التوجيهية المتعلقة بالمجتمع على كل المحتوى الموجود على Snapchat - وعلى جميع مستخدمي Snapchat - في جميع أنحاء العالم، بغض النظر عن الموقع.

يُمكن تنزيل المعلومات الخاصة بجميع الدول الأخرى من خلال ملف CSV المرفق.

المنطقة

الإبلاغات عن المحتوى*

المحتوى المتّخذ إجراء ضدّه

الحسابات الفريدة المتّخذ إجراء ضدّها

أمريكا الشمالية

٤٢٣٠٣٢٠

٢٥٣٨٤١٦

٩٢٨٩٨٠

أوروبا

٢٦٣٤٨٧٨

١٤١٧٦٤٩

٥٣٥٦٤٩

بقية دول العالم

٣٢٦٦٦٩٣

١٥٨٧٢١٦

٤٣١٤٠٧

الإجمالي

١٠١٣١٨٩١

٥٥٤٣٢٨١

١٨٩٦٠١٥