logo

نساهم، في Snap، في تقدم البشرية من خلال تمكين الناس من التعبير عن أنفسهم وعيش حاضرهم والتعرف على العالم والاستمتاع معًا. تحظى رفاهية مجتمعنا ببالغ اهتمامنا؛ وعند تصميم المنتجات، نضع خصوصية مستخدمي Snapchat وسلامتهم في الاعتبار عند تطوير واجهات المستخدم أثناء عملية التصميم.

توجد لدينا إرشادات توجيهية واضحة وشاملة تدعم مهمتنا من خلال تعزيز التعبير عن الذات على أوسع نطاق مع تشجيع مستخدمي Snapchat على استخدام خدماتنا بأمان بصفة يومية. تحظر الإرشادات التوجيهية المتعلقة بالمجتمع نشر المعلومات الكاذبة التي قد تسبب الأذى وخطاب الكراهية والتنمر والتحرش والأنشطة غير القانونية والمحتوى الجنسي الصريح والعنف المصور وغير ذلك الكثير.

يُقدم تقريرنا الخاص بالشفافية نظرة ثاقبة على المحتوى المخالف الذي نتخذ إجراءات ضده والطلبات الحكومية للحصول على معلومات حسابات مستخدمي Snapchat، وغير ذلك من الإشعارات القانونية.

لمعرفة مزيد من المعلومات حول نهجنا بخصوص الأمان والخصوصية ومواردنا المتعلقة بهما، يُرجى إلقاء نظرة على علامة التبويب نبذة عن تقارير الشفافية في أسفل الصفحة.

انتهاكات المحتوى / الحساب

تُلتقَط أكثر من أربعة مليارات Snaps يوميًا باستخدام كاميراتنا. في الفترة من 1 يناير 2020 وحتى 30 يونيو 2020، اتخذنا إجراءات ضد 3,872,218 جزء من المحتوى على مستوى العالم، وذلك بسبب انتهاكات الإرشادات التوجيهية المتعلقة بالمجتمع - وهذا يُشكل أقل من 0.012% من جميع منشورات القصة. في العموم، تتخذ فرقنا إجراءات بشأن مثل هذه الانتهاكات على وجه السرعة، سواء كان ذلك لإزالة Snaps أو حذف الحسابات أو إبلاغ المعلومات إلى المركز الوطني للأطفال المفقودين والمستغلين (NCMEC) أو تصعيد الأمر إلى سلطات إنفاذ القانون. في الغالبية العظمى من الحالات، نتخذ إجراءات ضد المحتوى في غضون ساعتين من تلقي تقرير داخل التطبيق.

Total Content Reports*

Total Content Enforced

Total Unique Accounts Enforced

13,204,971

3,872,218

1,692,859

النصف 1 من 2020: المحتوى المُتخَذ إجراء ضده

*تبين تقارير المحتوى الانتهاكات المزعومة عبر استفساراتنا داخل التطبيق والدعم.

**يعكس وقت الاستجابة متوسط الوقت بالساعات المستغرق لاتخاذ إجراء حيال تقرير المستخدم.

الانتهاكات الشائعة

مكافحة انتشار المعلومات الكاذبة

لطالما اعتقدنا أن الأمر عندما يتعلق بالمحتوى الضار، فإنه لا يكفي مجرد التفكير في السياسات وعمليات الإنفاذ - بل تحتاج الأنظمة الأساسية إلى التفكير بشأن بنيتها الأساسية وتصميم منتجاتها. تم إنشاء Snapchat منذ البداية بصورة مختلفة عن منصات التواصل الاجتماعي التقليدية، وذلك لدعم حالة الاستخدام الأساسية المتمثلة في التحدث مع الأصدقاء المقربين - بدلاً من ملف الأخبار المفتوح الذي يحق فيه لأي شخص إخبار أي شيء لأي شخص دون اعتدال.

كما ذكرنا في مقدمتنا، تحظر تعليماتنا بوضوح نشر المعلومات الكاذبة التي قد تسبب ضررًا، بما في ذلك المعلومات المضللة التي تهدف إلى تقويض العمليات المدنية، مثل قمع الناخبين، والادعاءات الطبية التي لا أساس لها، ونظريات المؤامرة مثل إنكار الأحداث المأساوية. تُطبق تعليماتنا باستمرار على جميع مستخدمي Snapchat - لا توجد لدينا استثناءات خاصة للسياسيين أو الشخصيات العامة.

يعمل Snapchat على الحد من الانتشار على مستوى تطبيقنا، مما يُزيل الجوانب المُحفزة للمحتوى الضار والمثير، ويحد من المخاوف المرتبطة بانتشار المحتوى السيئ. لا يوجد لدينا موجز أخبار مفتوح، ولا نمنح المحتوى المُعتمد فرصة "للانتشار". لا تعرض منصة اكتشف، منصة المحتوى لدينا، سوى محتوى ناشري الوسائط وصانعي المحتوى المُعتمدين.

في نوفمبر ٢٠٢٠، أطلقنا منصتنا الترفيهية الجديدة، منصة "الأضواء"، وراجعنا المحتوى بشكل استباقي للتأكد من توافقه مع تعليماتنا قبل وصوله إلى جمهور كبير.

كما اتبعنا نهجًا مختلفًا للإعلانات السياسية منذ فترة طويلة. على غرار جميع المحتوى الموجود على Snapchat، نحظر المعلومات الخاطئة والممارسات الخادعة في إعلاناتنا. يجب أن تتضمن جميع الإعلانات السياسية رسالة شفافة مفادها أنها "مدفوعة الثمن" وتُفصح عن المؤسسة الراعية، بما في ذلك الإعلانات المتعلقة بالانتخابات وإعلانات المناصرة وإعلانات القضايا. نستخدم أسلوب المراجعة البشرية للتحقق من صحة جميع الإعلانات السياسية، ونقدم معلومات عن جميع الإعلانات التي اجتازت مراجعتنا في مكتبة الإعلانات السياسية.

لا يُعتبر هذا النهج مثاليًا، لكنه ساعدنا في حماية Snapchat من الزيادة الهائلة في المعلومات المضللة خلال السنوات الأخيرة، وهو اتجاه كان ذا صلة خاصة خلال فترة انتشار معلومات خاطئة عن كوفيد-١٩ والانتخابات الرئاسية الأمريكية ٢٠٢٠ في العديد من المنصات.

على الصعيد العالمي خلال هذه الفترة، نفذ Snapchat عمليات إنفاذ ضد ٥٨٤١ محتوى وحساب بسبب انتهاك تعليماتنا بشأن المعلومات الخاطئة. بالنسبة للتقارير المستقبلية، نخطط تقديم تحليل أكثر تفصيلاً لانتهاكات المعلومات الخاطئة.

يوجد قلق متزايد بشأن الجهود المبذولة لتقويض الوصول إلى التصويت ونتائج الانتخابات في الولايات المتحدة في صيف عام ٢٠٢٠، ولذلك شكلنا فريق عمل داخلي انصب تركيزه على تقييم أي مخاطر أو توجهات محتملة لسوء استخدام منصتنا ورصد جميع التطورات وعمل على التأكد من كون Snapchat مصدرًا للأخبار والمعلومات الحقيقية. شملت هذه الجهود:

  • تحديث تعليمات التواصل الاجتماعي لإضافة التلاعب بالوسائط لأغراض مضللة، مثل التزييف العميق، إلى فئات المحتوى المحظور لدينا؛

  • العمل مع شركاء التحرير في منصة اكتشف بهدف التأكد من عدم التضخيم غير المتعمد من جانب الناشرين لأي معلومات مضللة من خلال التغطية الإخبارية؛

  • توجيه طلب إلى Snap Stars، ممن يظهر محتواهم أيضًا في محتوى منصة اكتشف، للتأكد من امتثالهم لتعليمات التواصل الاجتماعي وعدم نشر معلومات خاطئة عن غير عمد؛

  • الحصول على نتائج إنفاذ واضحة بالنسبة لأي محتوى مخالف - بدلاً من تصنيف المحتوى، قمنا ببساطة بإزالته، مما قلل الضرر الناجم عن مشاركته على نطاق أوسع بصورة فورية؛

  • التحليل الاستباقي للكيانات والمصادر الأخرى للمعلومات الخاطئة، والتي قد تُستخدَم لنشر مثل هذه المعلومات على Snapchat، وذلك بهدف تقييم المخاطر واتخاذ التدابير الوقائية.

طوال فترة جائحة كوفيد-١٩، اتبعنا نهجًا مشابهًا لتقديم الأخبار والمعلومات الحقيقية، بما في ذلك من خلال التغطية التي يقدمها شركاء التحرير في منصة اكتشف، ومن خلال إعلانات الخدمة العامة والأسئلة والأجوبة بالتعاون مع عدد من مسؤولي الصحة العامة والخبراء الطبيين، ومن خلال أدوات التصميم، مثل فلاتر وعدسات الواقع المُعزز، لتذكير مستخدمي Snapchat بإرشادات خبراء الصحة العامة.

Chart Key

Reason

Content Reports*

Content Enforced

Unique Accounts Enforced

Turnaround Time**

1

Harassment and Bullying

857,493

175,815

145,445

0.4

2

Hate Speech

229,375

31,041

26,857

0.6

3

Impersonation

1,459,467

22,435

21,510

0.1

4

Regulated Goods

520,426

234,527

137,721

0.3

5

Sexually Explicit Content

8,522,585

3,119,948

1,160,881

0.2

6

Spam

552,733

104,523

59,131

0.2

7

Threatening / Violence / Harm

1,062,892

183,929

141,314

0.5

*تبين تقارير المحتوى الانتهاكات المزعومة عبر استفساراتنا داخل التطبيق والدعم.

**يعكس وقت الاستجابة متوسط الوقت بالساعات المستغرق لاتخاذ إجراء حيال تقرير المستخدم.

الانتهاكات الشائعة

الاعتداء على الأطفال واستغلالهم جنسيًا

من غير المقبول تمامًا استغلال أي فرد من أفراد مجتمعنا - وخاصة الشباب - ويُحظر ذلك على Snapchat. يأتي من بين أولوياتنا القضاء على إساءة الاستخدام واكتشافه على منصتنا، ونعمل باستمرار على تحسين قدراتنا لمكافحة هذا النوع من الأنشطة غير القانونية.

يعمل فريق الثقة والأمان لدينا على مراجعة تقارير مواد الاعتداء الجنسي على الأطفال (CSAM) على وجه السرعة، وعند بزوغ دليل على هذا النشاط يتم إنهاء الحساب وإبلاغ المركز الوطني للأطفال المفقودين والمستغلين (NCMEC). نوفر دعمًا على مدار الساعة لوكالات إنفاذ القانون الدولية التي تتصل بنا لطلب المساعدة في قضايا الأحداث المفقودين أو المعرضين للخطر.

نستخدم تقنية PhotoDNA من أجل التعرف على تحميل الصور المعروفة المتعلقة بالاعتداء على الأطفال واستغلالهم جنسيًا، والإبلاغ عنها بصورة استباقية، ومن ثم نُبلغ السلطات بأي حالات. من بين إجمالي الحسابات التي اتُخذَت إجراءات ضدها بسبب انتهاكات الإرشادات التوجيهية المتعلقة بالمجتمع، أزلنا ما نسبته 2.99% بسبب حذف مواد الاعتداء الجنسي على الأطفال (CSAM).

علاوة على هذا، تحذف Snap ما يُشكل 70% من مثل هذه المواد بصورة استباقية.

إجمالي الحسابات المحذوفة

47,136

الإرهاب

يُحظر على المنظمات الإرهابية وجماعات الكراهية استخدام Snapchat، ولا نتسامح مع المحتوى الذي يدعو إلى التطرف الشديد أو الإرهاب أو يروج لهما.

Total Account Deletions

<10

نظرة عامة بخصوص الدولة

يُلقي هذا القسم نظرة عامة على تطبيق قواعدنا في دول معينة. تنطبق الإرشادات التوجيهية المتعلقة بالمجتمع على كل المحتوى الموجود على Snapchat - وعلى جميع مستخدمي Snapchat - في جميع أنحاء العالم، بغض النظر عن الموقع.

يُمكن تنزيل المعلومات الخاصة بجميع الدول الأخرى من خلال ملف CSV المرفق.

المنطقة

الإبلاغات عن المحتوى*

المحتوى المتّخذ إجراء ضدّه

الحسابات الفريدة المتّخذ إجراء ضدّها

أمريكا الشمالية

5,769,636

1,804,770

785,315

أوروبا

3,419,235

960,761

386,728

بقية دول العالم

4,016,100

1,106,687

413,272

الإجمالي

1,3204,971

3,872,218

1,578,985