每天,世界各地的 Snapchatter 都會使用我們的應用程式來與親密好友交流,並以富有創意的方式表達自己。我們的目標是設計產品並開發技術,在健康、安全且有趣的環境中培養並支持真正的友情。為了實現這項目標,我們持續不斷地改進作法,從制定政策和《社群規範》、開發針對有害內容進行防範、偵測及強制執行的工具,到實施相關措施以幫助教育我們的社群,並賦予他們力量。
我們致力於提供更公開透明的資訊,讓大家知道違反規範之內容的普及程度、我們如何執行政策、我們如何回應執法機關和政府的資訊要求,以及我們期望日後在哪些方面提供更多分析。我們每年發布兩次透明度報告,深入分析我們所做的這些工作,同時致力針對諸多深度關心網路使用安全和透明度的利益關係人,讓透明度報告涵蓋更加全面且有益的內容。
本報告涵蓋範圍為 2020 年下半年 (7 月 1 日至 12 月 31 日)。如同我們過去的報告,本報告將分享這段期間內發生的全球違規案例總計數據;在各個特定的違規類別中,我們所收到並進行強制執行的內容舉報數量;我們如何支持並滿足執法機關和政府的要求;以及我們按國家/地區劃分的強制執行作法。
隨著我們不斷努力改進安全性強制執行措施和透明度報告本身,這份報告也包含了幾項新要件:
內容的違規瀏覽率 (VVR) 可協助了解含有違反政策之內容的所有 Snap (或瀏覽) 所佔的比例;
在全球對散布不實資訊的內容和帳戶進行強制執行的總數,這在現在這段時期尤為重要,因為全世界正在持續對抗全球疫情,還有妨害公民和民主規範的種種情事;以及
支援調查潛在商標侵權行為的請求。
我們正在進行多項改進措施,以利我們在日後的報告中提供更詳細的數據。這包括擴大違規數據的子類別。例如,我們目前會報告有關管制商品的違規行為,其中包括非法毒品和武器。而在未來,我們預計會將每個項目劃分到各自的子類別中。
面對新出現的網路威脅和行為,我們將繼續改進工具和策略來迎擊。我們不斷評估風險,並思考如何精進技術能力,以便為社群提供更好的保護。我們會定期向安保和安全專家諮詢意見,以了解如何持續防範行為不良者,並感謝持續增加的合作夥伴提供寶貴的回饋意見,促使我們變得更好。
針對我們處理安全與隱私問題的方法和資源,如欲瞭解更多相關資訊,請參閱頁面底部的「關於透明度報告」標籤。
我們的《社群規範》嚴禁有害內容,包括錯誤資訊;可能造成傷害的陰謀論述;欺騙行為;非法活動,包括買賣非法毒品、假冒商品、違禁品或非法武器;仇恨言論、仇恨團體和恐怖主義;騷擾和霸凌;威脅、暴力和傷害,包括美化自殘行為;色情內容;以及兒童性剝削。
每天,平均有超過 50 億則 Snap 透過 Snapchat 相機建立。從 2020 年 7 月 1 日至 12 月 31 日,我們在全球對 5,543,281 則違反規範的內容進行了強制執行。
強制執行措施可能包括移除違規內容;終止或限制相關帳戶的能見度;以及將內容移交給執法機關。如果帳戶因違反規範而終止,其帳戶持有人將不得建立新帳戶或再次使用 Snapchat。
在本報告期間內,我們的違規瀏覽率 (VVR) 為 0.08%,這表示在 Snap 上每 10,000 次內容瀏覽中,就有 8 次涉及違反規範的內容。
我們提供應用程式內舉報工具,讓 Snapchatter 可以快速輕鬆地向「信任與安全」團隊舉報內容,而該團對將會調查舉報情況,並採取適當措施。我們的團隊會盡力以最快速度採取強制執行措施,並且在絕大多數情況下,會於收到應用程式內舉報後兩小時內採取行動。
除了應用程式內舉報,我們還透過支援網站提供線上舉報選項。此外,我們的團隊也不斷提升主動偵測違規行為和非法內容的能力,例如兒童性虐待材料、涉及非法毒品或武器的內容,或是暴力威脅。我們在本報告中概述了打擊兒童性剝削和性虐待的具體工作細節。
如下圖所示,在 2020 年下半年間,我們收到最多的應用程式內舉報或請求,是關於涉及假冒他人身分或色情内容的內容。我們能夠大幅縮短回應違規舉報的時間,特別是針對管制商品的舉報,包括非法毒品、假冒商品及武器;色情內容;以及騷擾和霸凌。
內容報告總計*
已處置內容總計
已處置之不重複帳戶總計
10,131,891
5,543,281
2,100,124
Reason
Content Reports*
Content Enforced
% of Total Content Enforced
Unique Accounts Enforced
Turnaround Time**
Sexually Explicit Content
5,839,778
4,306,589
77.7%
1,316,484
0.01
Regulated Goods
523,390
427,272
7.7%
209,230
0.01
Threatening / Violence / Harm
882,737
337,710
6.1%
232,705
0.49
Harassment and Bullying
723,784
238,997
4.3%
182,414
0.75
Spam
387,604
132,134
2.4%
75,421
0.21
Hate Speech
222,263
77,587
1.4%
61,912
0.66
Impersonation
1,552,335
22,992
0.4%
21,958
0.33
*「內容報告」顯示經由應用程式內及支援服務所舉報的疑似違規案例。
**「處理時間」顯示對用戶舉報採取行動的中位數時間 (以小時為單位)。
我們始終認為,當涉及有害內容時,只考慮政策和強制執行是不夠的,各平台也需要考慮其基本架構和產品設計。從最初的設計開始,Snapchat 便有別於傳統的社群媒體平台,以支援我們的主要用途,也就是與親密好友交流,而不是提供開放的動態消息平台,讓任何人有權利無節制地向任何人發放任何內容。
如同我們在簡介中所述,我們的規範明確嚴禁散佈可能造成傷害的不實資訊,包括意圖妨害公民程序的錯誤資訊,例如打壓選民、未經證實的醫療賠償,以及如否認悲劇事件等陰謀論述。所有 Snapchatter 均應遵守我們的規範,即便是政治人物或公眾人物也無一例外。
在我們的應用程式中,為了限制病毒式傳播行為,Snapchat 會移除產生有害和聳動內容的誘因,並限制有關散佈不良內容的疑慮。我們沒有開放的動態消息,也不會讓未經審查的內容有機會瘋狂傳播。我們的內容平台 Discover 僅提供由通過審查的媒體出版商和內容創作者所發送的內容。
2020 年 11 月,我們推出了新的娛樂平台「聚光燈」,並主動審核內容,確保其符合我們的規範後,才會讓這些內容觸及大量觀眾。
長久以來,我們也對政治廣告採取了不同的作法。與 Snapchat 上的所有內容一樣,我們嚴禁在廣告中使用不實資訊和欺騙行為。所有政治廣告 (包括選舉相關廣告、議題倡議廣告和議題廣告) 都必須包含公開透明的「付費」訊息,以披露贊助組織的資訊。我們使用人工審核方式對所有政治廣告進行查證,並在我們的「政治廣告資料庫」中提供所有通過審核之廣告的資訊。
這種作法並不完美,卻幫助我們為 Snapchat 避開近年來急劇增加的錯誤資訊,這種趨勢在新冠肺炎和 2020 年美國總統大選期間尤為顯著,許多平台在這些時候被不實資訊吞噬。
在這段期間,Snapchat 對全球 5,841 則內容和帳戶依違反不實資訊規範而進行了強制執行。在日後的報告中,我們預計將針對不實資訊違規行為提供更詳細的細目資訊。
有鑑於民眾高度關注 2020 年夏季妨害美國投票權和選舉結果的情事,因此我們成立了內部專案小組,負責評估任何濫用我們平台的潛在風險或媒介,監控所有事態發展情況,並努力確保 Snapchat 是符合事實的新聞和資訊來源。這些工作包括:
更新我們的社群規範,在我們嚴禁的內容類別中,新增誤導目的的媒體操作行為 (例如深偽技術);
與 Discover 編輯合作夥伴合作,確保出版商不會無意間透過新聞報導放大任何錯誤資訊;
要求 Snap Stars (其內容也會出現在 Discover 內容平台上) 確保遵守我們的《社群規範》,並避免無意間散佈不實資訊;
對任何違規內容給予明確的強制執行結果,我們沒有在內容加上標籤,而是直接將其移除,立即減少繼續擴大分享所造成的危害;以及
主動分析可能用來在 Snapchat 上散佈此類資訊的實體和其他不實資訊來源,以評估風險並採取預防措施。
在整個新冠肺炎疫情期間,我們也採取了類似的作法來提供符合事實的新聞和資訊,這些管道包括 Discover 編輯合作夥伴提供的報導、公共衛生機關人員與醫學專家的公共服務宣導 (PSA) 和問答內容,以及各項創新工具 (例如「擴增實境特效鏡頭」和濾鏡),以向 Snapchatter 提醒專家的公共衛生指引。
內容和帳戶強制執行總數
5,841
對我們社群中的任何成員 (尤其是年輕人和未成年人) 進行剝削是非法、不可接受且違反我們規範的行為。防範、偵測並消除平台上的濫用行為是我們的首要工作,我們也持續提升能力以打擊兒童性虐待素材 (CSAM) 和其他類型的剝削內容。
我們的「信任與安全」團隊會使用主動偵測工具(例如 PhotoDNA 技術)來識別已知的 CSAM 影像,並向國家失踪與受虐兒童中心 (NCMEC) 通報。當我們主動偵測或識別出 CSAM 案例時,我們會保留這些內容,並將其通報至 NCMEC,而後 NCMEC 將會審查通報內容,並與執法機關協調處理。
在 2020 年下半年,在我們依違反《社群規範》而採取強制執行措施的全球帳戶總數中,有 2.99% 含有 CSAM。其中,我們主動偵測出並採取行動的內容佔了 73%。總體來說,我們共刪除了 47,550 個 CSAM 違規帳戶,並向 NCMEC 通報了每個案例的內容。
在這段期間,我們採取了一些措施來進一步打擊 CSAM。我們對影片採用了 Google 的兒童性虐待圖像 (CSAI) 技術,以便我們能夠識別 CSAM 影片,並將其通報至 NCMEC。再結合我們對已知 CSAM 圖像和產業雜湊資料庫的 PhotoDNA 偵測功能,我們現在可以主動偵測已知的影片和照片圖像,並向當局通報。這項加強的能力使我們能更有效率地進行偵測,因此也能更有效率地通報這類犯罪行為。
此外,我們繼續擴大與產業專家的合作夥伴關係,並推出了額外的應用程式內功能,以協助教育 Snapchatter 有關接觸陌生人的風險,以及如何使用應用程式內舉報功能來向「信任與安全」團隊提醒任何類型的虐待行為。我們繼續為「Trusted Flagger Program」(認證舉報人計畫)新增合作夥伴,為通過審查的安全專家提供機密管道來舉報緊急的向上呈報情事,例如迫切的生命威脅或涉及 CSAM 的案例。我們還與這些合作夥伴密切合作,提供安全教育、健康資源和其他舉報支援,以便他們能有效支援 Snapchat 社群。
此外,我們也是 Technology Coalition 的董事會成員,這群科技產業領導者努力在網路上防範及消除兒童性剝削和性虐待行為,並持續與其他平台和安全專家合作,探索更多的解決方案,以加強我們在這個空間中的集體努力。
刪除帳戶總數
47,550
Snap 美國選舉誠信專案小組的工作之一,就是監控這個空間中的事態發展,並減少我們平台上任何潛在的濫用媒介。我們的產品架構和「群組聊天」功能設計都可限制有害內容的散佈和組織機會。我們提供「群組聊天」,但這項功能將群組規模限制在數十名成員,不會被演算法推薦,而且非群組成員無法在我們的平台上發現群組。
在 2020 年下半年間,我們依違反嚴禁恐怖主義、仇恨言論和極端主義內容的規範,而移除了 8 個帳戶。
刪除帳戶總數
8
本節以幾個國家/地區為例,概述我們在各國實行規範的狀況。我們的《社群規範》適用於 Snapchat 上的所有內容以及所有 Snapchatter,不分地點,全球通用。
地區
內容報告數量*
已處置內容數量
已處置之不重複帳戶數量
北美洲
4,230,320
2,538,416
928,980
歐洲
2,634,878
1,417,649
535,649
世界其他地區
3,266,693
1,587,216
431,407
總計
10,131,891
5,543,281
1,896,015