世界中のSnapchatユーザーは、毎日私たちのアプリを使用して、親しい友人と会話をしたりや自分自身のクリエイティブな表現をしたりしています。当社の目標は、健康で安全で楽しい環境の中で、本当の友情を育みサポートする製品を設計し、技術を構築することです。私たちは、ポリシー、コミュニティガイドラインから、有害なコンテンツを防止、検出、実施するためのツール、コミュニティ教育、強化の主導など、その方法を改善することに常に取り組んでいます。
当社は、ガイドラインに違反するコンテンツの蔓延状況、ポリシーの執行方法、法執行機関や政府からの情報提供要請への対応方法、また将来的にどのようなところを改善するのかについて、透明性の高いものを提供することを確約いたします。これらの取り組みについての見解を提供するために、透明性レポートを年に2回発行し、オンラインの安全性や透明性に深い関心を寄せる多くのステークホルダーのために、これらのレポートをより包括的かつ有益なものにすることを確約いたします。
この報告書は、2020年下半期(7月1日~12月31日)を対象としています。これまでの報告書と同様に、この期間中の世界規模の違反の総数を国ごとに分割して、特定の種類の違反に対して受理、及び執行したコンテンツレポートの数、法執行機関や政府からの要請をどのようにサポートし、支援したのかといったデータを共有しています。
安全性の強化と透明レポートの改善のための継続的な取り組みの一環として、本報告書には、以下のいくつかの新しい要素が含まれています。
コンテンツの違反動画視聴率(VVR)により、ポリシーに違反したコンテンツを含むすべてのSnap(またはビュー)の割合をよりよく理解することができます。
世界的な大流行や、市民や民主主義の規範を崩そうとする動きとの戦いが続いていたため、特にこの時期に関連したものだった全世界で虚偽の情報の取り締まりを受けたコンテンツとアカウントの合計、および
潜在的な商標違反の調査を支援する要請
今後の報告書でより詳細なデータを提供できるように、いくつかの改善に取り組んでいます。それには、違反データのサブカテゴリーの拡大が含まれます。例えば、私たちが現在、報告しているのは、違法な薬物や武器を含む規制品に関連する違反です。今後は、それぞれ独自のサブカテゴリーに含める予定です。
新しいオンライン上の脅威や行動が現われるとしても、それらと戦うためのツールや戦術を改善し続けていきます。当社は、常にリスクを評価し、コミュニティをよりよく保護するために、どのように技術力を向上できるかを考えています。当社は、定期的にセキュリティや安全の専門家に、悪意のある人の一歩先を行く方法についての指導を求めています。また、貴重なフィードバックを提供し、私たちの向上を後押ししてくれるパートナーの方々に感謝しています。
安全性とプライバシーに関する当社の取り組みや出典の詳細については、ページ下部の[透明性の報告について]タブをご覧ください。
当社のコミュニティガイドラインでは、誤情報、被害を招く可能性のある陰謀論、欺瞞的な慣行、違法な薬物、偽造品、禁制品、違法な武器の売買などの違法行為、ヘイトスピーチ、ヘイトグループ、テロリズム、脅迫、暴力、危害、および、自傷行為、性的に露骨なコンテンツ、児童の性的搾取の美化を含む有害なコンテンツを禁止しています。ハラスメントまたはいじめ、自傷行為の美化を含む脅迫、暴力、危害、性的に露骨なコンテンツ、および児童の性的搾取
毎日、Snapchatカメラを使用して平均して50億以上のSnapが作成されています。2020年7月1日から12月31日まで、世界中でガイドラインに違反した5,543,281作品に対して執行措置が取られました。
執行措置には、問題のあるコンテンツの削除、問題のあるアカウントの終了または可視性の制限、法執行機関への照会などがあります。当社ガイドライン作成に違反したためにアカウントが終了した場合、アカウント保有者は再度新しいアカウントを作成したり、Snapchatを使用したりすることはできません。
報告期間中の違反視聴率(VVR)は0.08%でした。これは、Snap上のコンテンツ再生1万回ののうち、8回にガイドライン違反のコンテンツが含まれていたことを意味します。
当社は、Snapchatユーザーがコンテンツをトラスト&セーフティチームに迅速かつ簡単に報告して、その報告を調査したうえで適切な措置を講じることができるアプリ内報告ツールを提供しています。当社チームは、できる限り迅速に執行措置を講じるよう努めており、大部分のケースでは、アプリ内の報告を受けてから2時間以内に措置を講じています。
また、アプリ内報告に加え、サポートサイトを通じたオンライン報告も提供しています。さらに、当社のチームは、児童性的虐待資料、違法な薬物や武器を含むコンテンツ、暴力の脅迫などのポリシー違反および違法なコンテンツを積極的に検出するための能力を常に改善しています。本報告書では、児童の性的搾取や虐待に対する取り組みの具体的な内容を紹介しています。
下の図が示すように、2020年下半期に、なりすましや性的に露骨なコンテンツに関連するコンテンツについてのアプリ内報告やサポートの要請を最も多く受けました。特に、違法薬物、偽造品、武器などの規制品、性的に露骨なコンテンツ、ハラスメントやいじめなどの違反報告への対応時間を大幅に改善することができました。
コンテンツレポート*の合計
強制執行を受けたコンテンツの合計
強制執行を受けた固有アカウント
10,131,891
5,543,281
2,100,124
理由
コンテンツレポート*
強制執行を受けたコンテンツ
強制執行を受けたコンテンツ合計の割合
強制執行を受けた固有アカウント
ターンアラウンドタイム**
性的に露骨なコンテンツ
5,839,778
4,306,589
77.7%
1,316,484
0.01
規制品
523,390
427,272
7.7%
209,230
0.01
脅迫 / 暴力 / 損害
882,737
337,710
6.1%
232,705
0.49
ハラスメントやいじめ
723,784
238,997
4.3%
182,414
0.75
迷惑メール
387,604
132,134
2.4%
75,421
0.21
ヘイトスピーチ
222,263
77,587
1.4%
61,912
0.66
なりすまし
1,552,335
22,992
0.4%
21,958
0.33
*コンテンツレポートには、アプリ内やサポートへの問い合わせによる違反の疑惑が反映されています。
**所要時間は、ユーザーレポートで措置を実行するまでの時間の中央値を時間単位で反映します。
有害コンテンツに関しては、ポリシーや執行措置を考えるだけでは不十分で、プラットフォームの基本的なアーキテクチャや製品設計についても考える必要があると常に考えています。Snapchatは当初から従来のソーシャルメディアプラットフォームとは異なる方法で構築されており、誰もが節度なく誰に対しても配信する権利を有するオープンニュースフィードではなく、主なユースケースである親しい友人との会話をサポートするためのものです。
導入部で説明した通り、本ガイドラインでは、有権者弾圧のような市民活動のプロセスを損なうことを目的とした誤報や、根拠のない医学的主張、悲劇的な出来事を否定するような陰謀論など、被害をもたらす可能性のある虚偽情報の拡散を明確に禁止しています。当社のガイドラインは、すべてのSnapchatユーザーに一貫して適用されます。政治家や公人だからといって特別に例外扱いはされません。
Snapchatはアプリ全体でバイラリティを制限することで、有害なコンテンツやセンセーショナルなコンテンツのインセンティブを排除し、有害コンテンツの拡散に伴う懸念事項を制限しています。オープンニュースフィードがないため、審査されていないコンテンツが「バズる」チャンスはありません。当社のコンテンツプラットフォームであるディスカバーでは、審査を通ったメディアパブリッシャーやコンテンツクリエイターからのコンテンツのみを掲載しています。
2020年11月、新しいエンターテインメントプラットフォームであるSpotlightを立ち上げ、多数のオーディエンスに到達する前に当社のガイドラインを確実に順守するためにコンテンツを積極的に管理しています。
当社は、政治的広告についても長い間さまざまなアプローチを取ってきました。Snapchatの他のすべてのコンテンツと同様に、広告における虚偽の情報や欺瞞的な行為は禁止されています。選挙関連広告、問題提起広告、意見広告を含むすべての政治広告には、スポンサー組織を開示する透明性を持つ「有料」メッセージを含める必要があります。当社は、人間による審査によりすべての広告を事実確認し、審査を通った広告に関する情報を政治広告ライブラリーで提供しています。
このアプローチは完璧ではありませんが、近年の誤った情報の劇的な増加からSnapchatを保護するのには役立ちました。これは、新型コロナウイルスや2020年の米国大統領選挙に関する虚偽情報が多くのプラットフォームで席巻した期間に特に関連性の高い傾向です。
世界中でこの期間中、Snapchatは、当社の虚偽ガイドライン違反を犯した5,841作品のコンテンツやアカウントに対して執行措置を取りました。今後の報告書では、虚偽情報違反などより詳しい内訳を報告する予定です。
2020年夏、米国では、投票権や選挙結果を弱体化させようとする動きに対する懸念が高まっていたことから、社内にタスクフォースを設置し、プラットフォームを悪用する潜在的なリスクやベクターの評価に注力し、すべての動向を監視し、Snapchatが事実に基づいたニュースや情報の発信源となるように尽力しました。これらの取り組みには、以下のものが含まれます:
コミュニティガイドラインを更新し、禁止コンテンツのカテゴリーにディープフェイクなどの誤解を招く目的でメディアを操作する行為を追加しました。
ディスカバーの編集パートナーとの連携することにより、パブリッシャーがニュース報道を通じて誤報を増幅しないよう徹底しました。
コンテンツがディスカバーコンテンツプラットフォームにも掲載されるSnap Starsに対して、コミュニティガイドラインを遵守し、誤って虚偽情報を広めることのないように要請しました。
違反したコンテンツについては明確な執行結果を報告しました。コンテンツにラベル付けするのではなくそのコンテンツを削除し、広く共有されることによる害を直ちに軽減しました。
Snapchat上で虚偽の情報を配信する可能性のあるエンティティやその他のソースなどを積極的に分析し、リスクを評価して防止策を講じました。
新型コロナウイルスパンデミックの期間中、当社は同様のアプローチで事実に基づいたニュースや情報を提供してきました。これには、ディスカバーの編集パートナーによる報道、公衆衛生当局や医療専門家によるPSAやQ&A、拡張現実レンズやフィルターなどのクリエイティブなツールを用いて、公衆衛生に関する専門家のアドバイスをSnapchatユーザーに再確認する取り組みも含まれます。
コンテンツおよびアカウントの強制執行数の合計
5,841
当社コミュニティのメンバー、特に若者や未成年者の搾取は違法かつ容認できないものであり、当社のガイドラインで禁止されています。当社プラットフォーム上で不正行為の防止、検出、および排除は最優先事項であり、当社は児童性的虐待資料 (CSAM) やその他の種類の搾取コンテンツに対抗するための機能を継続的に進化させています。
当社のトラスト&セーフティチームは、PhotoDNA技術などの積極的な検出ツールを使用して、CSAMの既知の画像を特定報告し、全米行方不明・搾取児童センター (NCMEC) に報告しています。CSAMの事例を積極的に検出した場合、これらを保存し、NCMECに報告し、法執行機関と審査および調整を行います。
2020年下半期には、世界中でコミュニティガイドライン違反により執行措置の対象となったアカウントの合計2.99%がCSAMを含んだものでした。このうち、当社はコンテンツの73%を積極的に検出し、措置を講じました。全体ではCSAM違反により47,550件のアカウントを削除し、そのコンテンツをNCMECに報告しました。
この期間中、CSAMへの対策をさらに強化するために、多数の手順を講じました。GoogleのChild Sexual Abuse Imagery (CSAI) 技術を動画に採用し、CSAMの動画を識別してNCMECに報告できるようになりました。当社PhotoDNAによる既知のCSAM画像の検出と業界のハッシュデータベースを組み合わせることにより、既知のビデオや写真画像を積極的に検出し、当局に報告することができるようになりました。この強化された機能により、この犯罪行為の検出、ひいては報告効率が大幅に上昇しました。
また、業界の専門家とのパートナーシップを継続的に拡大し、アプリ内の機能を追加して、見知らぬ人と接触することのリスクや、アプリ内の報告機能を使ってトラスト&セーフティチームにあらゆるタイプの不正行為を知らせる方法について、Snapchatユーザーを啓蒙しています。 信頼できるフラガープログラムには、引き続きパートナーを追加しました。このプログラムは、人命への差し迫った脅威やCSAMに関わる事件などの緊急事態を報告するために、吟味された安全関連の専門家に秘密のチャンネルを提供するものです。また、これらのパートナーと緊密に連携して、Snapchatコミュニティを効果的にサポートできるように、安全教育、ウェルネスリソース、その他の報告サポートを提供しています。
さらに、当社は、オンラインでの児童性的虐待の防止と撲滅を目指す、技術業界のリーダーたちのグループであるTechnology Coalitionの取締役を務めており、この分野での集団的な取り組みを強化するために他のプラットフォームや安全性の専門家と協力して、ソリューションを追加するために常に取り組んでいます。
アカウント削除の総数
47,550
Snapでは、この分野の動向を監視し、当社のプラットフォームでの不正行為の潜在的なベクターを軽減することが、米国選挙整合性タスクフォースの業務の一環となっていました。製品アーキテクチャとグループチャット機能の設計の両方で、有害なコンテンツの拡散や組織化の機会を制限しています。グループチャットを提供していますが、その規模は数十人に限定されており、アルゴリズムによって推奨されていないため、そのグループのメンバーでない限り、プラットフォーム上で発見できない仕組みとなっています。
2020年下半期には、テロリズム、ヘイトスピーチ、過激派コンテンツ違反により8件のアカウントを削除しました。
アカウント削除の総数
8
本セクションでは、個々の国のサンプリングにおける当社のルールの施行概要を説明いたします。当社のコミュニティガイドラインは、場所に関係なく、世界中のSnapchat上のすべてのコンテンツとSnapchatユーザーに適用されます。
地域
コンテンツレポート*
強制執行を受けたコンテンツ
強制執行を受けた固有アカウント
北米
4,230,320
2,538,416
928,980
ヨーロッパ
2,634,878
1,417,649
535,649
その他の地域
3,266,693
1,587,216
431,407
合計
10,131,891
5,543,281
1,896,015