Mỗi ngày, các Tín Đồ Snapchatter trên khắp thế giới sử dụng ứng dụng của chúng tôi để nói chuyện với bạn bè thân thiết của họ và thể hiện bản thân một cách sáng tạo. Mục tiêu của chúng tôi là thiết kế sản phẩm và xây dựng công nghệ nuôi dưỡng và hỗ trợ tình bạn thực sự trong một môi trường lành mạnh, an toàn và vui vẻ. Chúng tôi không ngừng làm việc để cải thiện cách chúng tôi làm điều đó - từ các chính sách của chúng tôi và Cẩm Nang Cộng Đồng, đến các công cụ ngăn chặn, phát hiện và xử lý nội dung có hại cho đến các sáng kiến giúp giáo dục và trao quyền cho cộng đồng của chúng tôi.
Chúng tôi luôn dốc sức để trở nên minh bạch hơn trong việc cung cấp mức độ phổ biến của nội dung vi phạm cẩm nang của chúng tôi, cách chúng tôi thực thi các chính sách của mình, cách chúng tôi phản hồi các yêu cầu thông tin của cơ quan thực thi pháp luật và chính phủ cũng như nơi chúng tôi tìm cách cung cấp thông tin chi tiết hơn trong tương lai. Chúng tôi xuất bản báo cáo minh bạch hai lần một năm để cung cấp thông tin chi tiết về những nỗ lực này, đồng thời cam kết làm cho các báo cáo này toàn diện hơn và hữu ích hơn cho nhiều bên liên đới có mối quan tâm sâu sắc về an toàn và minh bạch trực tuyến.
Báo cáo này đưa ra cái nhìn bao quát về nửa sau năm 2020 (1 tháng 7 - 31 tháng 12). Cũng như các báo cáo trước đây của chúng tôi, nó chia sẻ dữ liệu về tổng số vi phạm trên toàn cầu trong giai đoạn này; số lượng báo cáo nội dung trong nhiều danh mục vi phạm cụ thể mà chúng tôi đã nhận được và xử lý; cách chúng tôi đã hỗ trợ và đáp ứng các yêu cầu từ cơ quan thực thi pháp luật và chính phủ; và các biện pháp thực thi của chúng tôi được chia nhỏ theo quốc gia.
Là một phần trong nỗ lực không ngừng của chúng tôi để cải thiện cả việc thực thi an toàn và bản thân các báo cáo minh bạch của chúng tôi, báo cáo này cũng bao gồm một số yếu tố mới:
Tỷ lệ xem vi phạm (VVR) của nội dung, giúp hiểu rõ hơn về tỷ lệ của tất cả các Snap (hoặc lượt xem) có chứa nội dung vi phạm chính sách của chúng tôi;
Tổng số nội dung và tài khoản thực thi thông tin sai lệch trên toàn cầu - đặc biệt có liên quan trong khoảng thời gian này, khi thế giới tiếp tục chiến đấu với đại dịch toàn cầu và những nỗ lực phá hoại các chuẩn mực công dân và dân chủ; và
Yêu cầu hỗ trợ điều tra các vi phạm nhãn hiệu tiềm ẩn.
Chúng tôi đang thực hiện một số cải tiến sẽ nâng cao khả năng cung cấp dữ liệu chi tiết hơn trong các báo cáo trong tương lai. Điều đó bao gồm việc mở rộng các danh mục phụ của dữ liệu vi phạm. Ví dụ: chúng tôi hiện báo cáo các vi phạm liên quan đến hàng hóa được quản lý, bao gồm ma túy và vũ khí bất hợp pháp. Trong tương lai, chúng tôi dự định đưa mỗi danh mục vào danh mục con của riêng nó.
Khi các mối đe dọa và hành vi trực tuyến mới xuất hiện, chúng tôi sẽ tiếp tục cải tiến các công cụ và chiến thuật của mình để chống lại chúng. Chúng tôi liên tục đánh giá các rủi ro và cách chúng tôi có thể nâng cao năng lực công nghệ của mình để bảo vệ cộng đồng của mình tốt hơn. Chúng tôi thường xuyên tìm kiếm hướng dẫn từ các chuyên gia an ninh và an toàn về cách chúng tôi có thể đi trước một bước trước những kẻ xấu - và biết ơn danh sách đối tác ngày càng tăng của chúng tôi, những người đưa ra phản hồi vô giá và thúc đẩy chúng tôi trở nên tốt hơn.
Để biết thêm thông tin về cách tiếp cận của chúng tôi và các tài nguyên về an toàn và quyền riêng tư, vui lòng xem Giới thiệu về Báo Cáo Minh Bạch ở cuối trang..
Cẩm Nang Cộng Đồng của chúng tôi nghiêm cấm nội dung có hại, bao gồm cả thông tin sai lệch; các thuyết âm mưu có thể gây hại; hành vi lừa đảo; các hoạt động bất hợp pháp, bao gồm mua hoặc bán thuốc bất hợp pháp, hàng giả, hàng lậu hoặc vũ khí bất hợp pháp; ngôn từ kích động thù địch, các nhóm căm thù và khủng bố; quấy rối và bắt nạt; đe dọa, bạo lực và gây tổn hại, bao gồm cả việc tôn vinh hành vi tự làm hại bản thân; nội dung khiêu dâm; và bóc lột tình dục trẻ em.
Mỗi ngày, trung bình có hơn năm tỷ Snap được tạo bằng camera Snapchat của chúng tôi. Từ ngày 1 tháng 7 tới ngày 31 tháng 12 năm 2020, chúng tôi đã xử lý 5.543.281 phần nội dung trên toàn cầu vi phạm cẩm nang của chúng tôi.
Các hành động xử lý có thể bao gồm xóa nội dung vi phạm; chấm dứt hoặc hạn chế khả năng hiển thị của tài khoản được đề cập; và chuyển nội dung đến cơ quan thực thi pháp luật. Nếu tài khoản bị chấm dứt do vi phạm Cẩm Nang của chúng tôi, chủ tài khoản không được phép tạo tài khoản mới hoặc sử dụng lại Snapchat.
Trong khoảng thời gian báo cáo, chúng tôi đã thấy Tỷ lệ xem vi phạm (VVR) là 0,08 phần trăm, có nghĩa là trong số 10.000 lượt xem nội dung trên Snap, có tám lượt chứa nội dung vi phạm cẩm nang của chúng tôi.
Chúng tôi cung cấp các công cụ báo cáo trong ứng dụng cho phép các Tín Đồ Snapchatter báo cáo nội dung nhanh chóng và dễ dàng cho nhóm Tin cậy và An toàn của chúng tôi, những người điều tra báo cáo và thực hiện hành động thích hợp. Các nhóm của chúng tôi làm việc để thực hiện các hành động thực thi nhanh nhất có thể và trong phần lớn các trường hợp, thực hiện hành động trong vòng hai giờ kể từ khi nhận được báo cáo trong ứng dụng.
Ngoài báo cáo trong ứng dụng, chúng tôi cũng cung cấp các tùy chọn báo cáo trực tuyến thông qua trang web hỗ trợ của chúng tôi. Hơn nữa, các nhóm của chúng tôi không ngừng cải thiện khả năng chủ động phát hiện nội dung vi phạm và bất hợp pháp, chẳng hạn như tài liệu lạm dụng tình dục trẻ em, nội dung liên quan đến ma túy hoặc vũ khí bất hợp pháp hoặc các mối đe dọa bạo lực. Chúng tôi nêu chi tiết cụ thể về công việc của mình nhằm chống bóc lột và lạm dụng tình dục trẻ em trong báo cáo này.
Như các bảng biểu dưới đây cho thấy, trong nửa cuối năm 2020, chúng tôi đã nhận được nhiều báo cáo hoặc yêu cầu hỗ trợ trong ứng dụng nhất về nội dung liên quan đến việc mạo danh hoặc nội dung khiêu dâm. Chúng tôi đã có thể cải thiện đáng kể thời gian phản hồi các báo cáo vi phạm, đặc biệt đối với hàng hóa được quản lý, bao gồm ma túy, hàng giả và vũ khí bất hợp pháp; nội dung khiêu dâm; và quấy rối và bắt nạt.
Tổng Số Báo Cáo Nội Dung*
Tổng Số Nội Dung Đã Xử Lý
Tổng Số Tài Khoản Độc Nhất Đã Xử Lý
10.131.891
5.543.281
2.100.124
Reason
Content Reports*
Content Enforced
% of Total Content Enforced
Unique Accounts Enforced
Turnaround Time**
Sexually Explicit Content
5,839,778
4,306,589
77.7%
1,316,484
0.01
Regulated Goods
523,390
427,272
7.7%
209,230
0.01
Threatening / Violence / Harm
882,737
337,710
6.1%
232,705
0.49
Harassment and Bullying
723,784
238,997
4.3%
182,414
0.75
Spam
387,604
132,134
2.4%
75,421
0.21
Hate Speech
222,263
77,587
1.4%
61,912
0.66
Impersonation
1,552,335
22,992
0.4%
21,958
0.33
*Báo cáo Nội dung phản ánh các vi phạm bị cáo buộc thông qua các yêu cầu hỗ trợ và truy vấn trong ứng dụng của chúng tôi.
** Thời gian Xử lý phản ánh thời gian trung bình tính bằng giờ để đưa ra hành động dựa trên báo cáo từ người dùng.
Chúng tôi luôn tin rằng khi nói đến nội dung có hại, chỉ cần nghĩ đến các chính sách và việc thực thi là chưa đủ - các nền tảng cần phải suy nghĩ về kiến trúc cơ bản và thiết kế sản phẩm của họ. Ngay từ đầu, Snapchat được xây dựng khác với các nền tảng truyền thông xã hội truyền thống, để hỗ trợ trường hợp sử dụng chính của chúng ta là trò chuyện với bạn bè thân thiết - chứ không phải là một nguồn cấp tin tức mở, nơi mọi người có quyền chia sẻ bất kỳ thứ gì cho bất kỳ ai mà không cần kiểm duyệt.
Như chúng tôi giải thích trong phần giới thiệu của mình, cẩm nang của chúng tôi rõ ràng nghiêm cấm việc truyền bá thông tin sai lệch có thể gây hại, bao gồm thông tin sai lệch nhằm phá hoại các quy trình công dân, như đàn áp cử tri, tuyên bố y tế không có căn cứ và các thuyết âm mưu như phủ nhận các sự kiện bi thảm. Cẩm nang của chúng tôi áp dụng nhất quán cho tất cả các Tín Đồ Snapchatter - chúng tôi không có ngoại lệ đặc biệt cho các chính trị gia hoặc nhân vật của công chúng.
Trên ứng dụng của chúng tôi, Snapchat hạn chế mức độ lan truyền, điều này sẽ loại bỏ các khuyến khích cho nội dung có hại và giật gân, đồng thời hạn chế các mối lo ngại liên quan đến việc lan truyền nội dung xấu. Chúng tôi không có nguồn cấp tin tức mở và không tạo cơ hội cho nội dung chưa được tiết lộ để 'lan truyền'. Nền tảng nội dung của chúng tôi, Khám Phá, chỉ giới thiệu nội dung từ các nhà xuất bản truyền thông và người sáng tạo nội dung đã được kiểm duyệt.
Vào tháng 11 năm 2020, chúng tôi đã ra mắt nền tảng giải trí mới, Tâm Điểm và chủ động kiểm duyệt nội dung để đảm bảo nội dung tuân thủ cẩm nang của chúng tôi trước khi có thể tiếp cận một lượng lớn đối tượng.
Chúng tôi cũng đã thực hiện một cách tiếp cận khác đối với quảng cáo chính trị từ lâu. Như với tất cả nội dung trên Snapchat, chúng tôi nghiêm cấm thông tin sai lệch và hành vi lừa đảo trong quảng cáo của mình. Tất cả các quảng cáo chính trị, bao gồm cả quảng cáo liên quan đến bầu cử, quảng cáo vận động chính sách và quảng cáo phát hành, phải bao gồm một thông điệp minh bạch “được trả tiền cho” tiết lộ về tổ chức tài trợ. Chúng tôi sử dụng quá trình xem xét của con người để kiểm tra thực tế tất cả các quảng cáo chính trị và cung cấp thông tin về tất cả các quảng cáo vượt qua quá trình xem xét của chúng tôi trong Thư viện Quảng cáo Chính trị.
Cách tiếp cận này không hoàn hảo, nhưng nó đã giúp chúng tôi bảo vệ Snapchat khỏi sự gia tăng đáng kể của thông tin sai lệch trong những năm gần đây, một xu hướng đặc biệt có liên quan trong thời kỳ mà thông tin sai lệch về COVID-19 và cuộc bầu cử tổng thống Hoa Kỳ năm 2020 đã bao trùm nhiều nền tảng.
Trên toàn cầu trong thời gian này, Snapchat đã xử lý 5.841 phần nội dung và các tài khoản do vi phạm cẩm nang về thông tin sai lệch của chúng tôi. Trong các báo cáo trong tương lai, chúng tôi có kế hoạch cung cấp bảng phân tích chi tiết hơn về các vi phạm thông tin sai lệch.
Do lo ngại ngày càng cao về những nỗ lực làm suy yếu quyền tiếp cận bỏ phiếu và kết quả bầu cử ở Hoa Kỳ vào mùa hè năm 2020, chúng tôi đã thành lập một Lực lượng đặc nhiệm nội bộ tập trung vào việc đánh giá mọi nguy cơ tiềm ẩn hoặc các phương tiện cho việc sử dụng sai nền tảng của chúng tôi, theo dõi tất cả các diễn biến và làm việc để đảm bảo Snapchat là nguồn cung cấp tin tức và thông tin thực tế. Những nỗ lực này bao gồm:
Cập nhật cẩm nang cộng đồng của chúng tôi để thêm phương tiện cho các mục đích gây hiểu lầm, chẳng hạn như deepfakes, vào các danh mục nội dung bị cấm của chúng tôi;
Làm việc với các đối tác biên tập của Khám Phá của chúng tôi để đảm bảo các nhà xuất bản không vô tình khuếch đại bất kỳ thông tin sai lệch nào thông qua việc đưa tin;
Yêu cầu Snap Stars, người có nội dung cũng xuất hiện trên nền tảng nội dung Khám phá của chúng tôi để đảm bảo rằng họ tuân thủ Cẩm Nang Cộng Đồng của chúng tôi và không vô tình phát tán thông tin sai lệch;
Có kết quả xử lý rõ ràng đối với bất kỳ nội dung vi phạm nào - thay vì gắn nhãn nội dung, chúng tôi chỉ xóa nội dung đó, ngay lập tức giảm tác hại của việc nội dung đó được chia sẻ rộng rãi hơn; và
Chủ động phân tích các thực thể và các nguồn thông tin sai lệch khác có thể được sử dụng để phân phối thông tin đó trên Snapchat để đánh giá rủi ro và thực hiện các biện pháp phòng ngừa.
Trong suốt đại dịch COVID-19, chúng tôi đã thực hiện một cách tiếp cận tương tự để cung cấp tin tức và thông tin thực tế, bao gồm thông qua phạm vi được cung cấp bởi các đối tác biên tập Khám Phá của chúng tôi, thông qua các thông báo đại chúng (PSA) và mục Hỏi Đáp (Q&A) với các quan chức y tế công cộng và chuyên gia y tế, cũng như thông qua các công cụ sáng tạo, chẳng hạn như Ống Kính Tăng cường Thực Tế và bộ lọc, nhắc nhở các Tín Đồ Snapchatter về hướng dẫn sức khỏe cộng đồng của chuyên gia.
Tổng số Nội dung & Tài khoản đã Xử lý
5.841
Việc bóc lột bất kỳ thành viên nào trong cộng đồng của chúng tôi, đặc biệt là thanh niên và trẻ vị thành niên, là bất hợp pháp, không thể chấp nhận và bị nghiêm cấm theo cẩm nang của chúng tôi. Việc ngăn chặn, phát hiện và loại bỏ hành vi lạm dụng trên nền tảng của chúng tôi là ưu tiên hàng đầu của chúng tôi và chúng tôi liên tục phát triển khả năng của mình để chống lại Tài liệu lạm dụng tình dục trẻ em (CSAM) và các loại nội dung bóc lột khác.
Nhóm Tin cậy và An toàn của chúng tôi sử dụng các công cụ phát hiện chủ động, chẳng hạn như công nghệ PhotoDNA, để xác định các hình ảnh đã biết về CSAM và báo cáo nó cho Trung tâm Quốc gia về Trẻ em Mất tích và Bị bóc lột (NCMEC). Khi chúng tôi chủ động phát hiện hoặc xác định các trường hợp CSAM, chúng tôi lưu giữ các trường hợp này và báo cáo chúng cho NCMEC, sau đó sẽ xem xét và phối hợp với cơ quan thực thi pháp luật.
Trong nửa cuối năm 2020, 2,99% tổng số tài khoản mà chúng tôi đã thực hiện hành động cưỡng chế trên toàn cầu do vi phạm Cẩm Nang Cộng Đồng của chúng tôi có chứa CSAM. Trong số này, chúng tôi đã chủ động phát hiện và xử lý đối với 73% nội dung. Nhìn chung, chúng tôi đã xóa 47.550 tài khoản do vi phạm CSAM và trong mỗi trường hợp đều báo cáo nội dung đó cho NCMEC.
Trong khoảng thời gian này, chúng tôi đã thực hiện một số bước để chống lại CSAM. Chúng tôi đã áp dụng công nghệ Hình ảnh Lạm dụng Tình dục Trẻ em (CSAI) của Google dành cho video, cho phép chúng tôi xác định các video CSAM và báo cáo nó cho NCMEC. Kết hợp với tính năng phát hiện PhotoDNA của chúng tôi cho hình ảnh CSAM đã biết và cơ sở dữ liệu băm ngành, giờ đây chúng tôi có thể chủ động phát hiện và báo cáo cho cơ quan chức năng về hình ảnh video và hình ảnh đã biết. Khả năng nâng cao này đã cho phép chúng tôi trở nên hiệu quả hơn nhiều trong việc phát hiện cũng như việc báo cáo của chúng tôi về hành vi phạm tội này.
Ngoài ra, chúng tôi tiếp tục mở rộng quan hệ đối tác với các chuyên gia trong ngành và triển khai các tính năng bổ sung trong ứng dụng để giúp giáo dục các Tín Đồ Snapchatter về rủi ro khi tiếp xúc với người lạ và cách sử dụng báo cáo trong ứng dụng để cảnh báo cho nhóm Tin cậy và An toàn của chúng tôi về bất kỳ loại sự lạm dụng. Chúng tôi tiếp tục thêm các đối tác vào chương trình người gắn cờ đáng tin cậy của mình để cung cấp cho các chuyên gia an toàn đã được kiểm tra một kênh bí mật để báo cáo các trường hợp leo thang khẩn cấp, chẳng hạn như mối đe dọa sắp xảy ra đối với tính mạng hoặc trường hợp liên quan đến CSAM. Chúng tôi cũng hợp tác chặt chẽ với các đối tác này để cung cấp giáo dục an toàn, tài nguyên chăm sóc sức khỏe và các hỗ trợ báo cáo khác để họ có thể hỗ trợ cộng đồng Snapchat một cách hiệu quả.
Ngoài ra, chúng tôi phục vụ trong Ban Giám đốc của Liên minh công nghệ, một nhóm các nhà lãnh đạo ngành công nghệ tìm cách ngăn chặn và xóa bỏ nạn bóc lột và lạm dụng tình dục trẻ em trực tuyến, đồng thời liên tục làm việc với các nền tảng và chuyên gia an toàn khác để khám phá các giải pháp bổ sung nhằm tăng cường nỗ lực chung của chúng tôi trong không gian này.
Tổng Số Tài Khoản Đã Xóa
47.550
Tại Snap, việc theo dõi sự phát triển trong không gian này và giảm thiểu bất kỳ vectơ lạm dụng tiềm ẩn nào trên nền tảng của chúng tôi là một phần trong công việc của lực lượng đặc nhiệm về liêm chính bầu cử Hoa Kỳ. Cả kiến trúc sản phẩm và thiết kế chức năng Nhóm Chat của chúng tôi đều hạn chế việc lan truyền nội dung có hại và có cơ hội tổ chức. Chúng tôi cung cấp Nhóm Chat, nhưng chúng có quy mô giới hạn cho vài chục thành viên, không được thuật toán khuyến nghị và không thể phát hiện trên nền tảng của chúng tôi nếu bạn không phải là thành viên của Nhóm đó.
Trong nửa cuối năm 2020, chúng tôi đã xóa tám tài khoản do vi phạm nội dung cấm khủng bố, ngôn từ kích động thù địch và cực đoan của chúng tôi.
Tổng Số Tài Khoản Đã Xóa
8
Phần này cung cấp thông tin tổng quan về việc thực thi các quy tắc của chúng tôi ở từng quốc gia. Cẩm Nang Cộng Đồng của chúng tôi áp dụng cho tất cả nội dung trên Snapchat — và tất cả các Tín Đồ Snapchatter — trên toàn cầu, bất kể vị trí ở đâu.
Thông tin về tất cả các quốc gia khác có sẵn để tải xuống thông qua tệp CSV đính kèm.
Khu vực
Báo Cáo Nội Dung*
Nội Dung Đã Được Xử Lý
Tài Khoản Độc Nhất Đã Xử Lý
Bắc Mỹ
4.230.320
2.538.416
928.980
Châu Âu
2.634.878
1.417.649
535.649
Phần Còn Lại Của Thế Giới
3.266.693
1.587.216
431.407
Tổng
10.131.891
5.543.281
1.896.015