4 つの Responsibility( 責任): Remove、 違反コンテンツの削除
YouTube では、 Openness(開かれた場であること) を大切にするとともに、Responsibility(責任)を守るために取り組みを近年強化してきました。この取り組みは、以下の 4 つの原則から構成しています。
YouTube では、これらの原則を今後数ヶ月をかけてそれぞれ紹介していきます。今回は、1つ目のR、コンテンツの削除(REMOVE)について説明します。サービス提供以来、YouTube では有害なコンテンツを削除してきましたが、このミッションへの投資は、近年でより増加しています。例えば、下記が2016 年以降に実施した主な改善点の概要です。この継続的な取り組みにより、ポリシー違反で削除されることになる動画の視聴回数を過去 18 ヵ月で 80% も削減し、YouTube は今後もこの数字を高められるように改善を続けていきます。
世界で使われるためのポリシー
表現の自由を守りながら、活気に満ちたコミュニティを維持し、その成長を支えるためには、ポリシー違反のコンテンツを削除する前に、削除対象と許可対象の線引きが適切かどうかを確認する必要があります。YouTube のオープン性を阻害しないよう、すべてのポリシーを体系的に検証し、コミュニティの安全を担保するために、YouTube ではポリシー開発を専門に行うチームが業務にあたっています。
ポリシー検証後に根本的な変更が必要となることはほとんどありませんが、曖昧な内容やコミュニティが混乱する可能性がある内容もあります。結果として、多くの更新は、既存のガイドラインを明確にするために行われています。たとえば、今年前半には、どういった場合に「チャレンジ」動画が危険と判断されるかについて、 詳細 を公開しています。YouTube は、2018 年以降、軽微な内容から重要な内容まで、ガイドラインを多く更新しています。
特に重要な問題については、新しいポリシーの策定に数か月かける場合もあります。その場合、YouTube では、外部専門家やクリエイターの方との話す機会を設けることで、現在のポリシーがどう不十分かを理解し、地域文脈の違いを考慮しながら、提案する変更が世界中で公平に適用できるようにしています。
ヘイトスピーチ関連ポリシーの更新 は、代表的な例になります。YouTube では、ポリシーを注意深く考案し、様々なチームと連携することで、ポリシーの実施に必要なトレーニングとツールを作成しています。このポリシーは 6 月上旬に公開していますが、チームがコンテンツの確認や削除する毎に、テクノロジーによる検出は向上しています。しいポリシーを強化するには数ヵ月の時間がかかる場合がありますが、ヘイトスピーチ関連ポリシーの更新による効果の大きさは、「 YouTube コミュニティ ガイドラインの 適用について 」のレポートの今四半期のデータからも明らかです。
ただし、以前は許可されていた古いコメント、動画、チャンネルが削除の対象になったことも、削除件数が急激に増加した原因のひとつです。また、 2019 年 5 月 には、クリエイター同士のハラスメントを含むハラスメント関連ポリシーも更新の対象となっている旨をお伝えしていますが、この作業の進捗状況については、今後数か月以内にお知らせする予定です。
自動検出システムによる報告
ポリシーの定義後は、人間とテクノロジーの組み合わせにより不適切なコンテンツを報告し、レビューチームがコンテンツを検証します。YouTube では、ハッシュ(または「デジタルフィンガープリント」)を使用して、既知の違反コンテンツのコピーが公開される前に特定を行う場合もあります。児童性的虐待画像 (CSAI) やテロ行為を助長する動画などのトピックでは、違反コンテンツのアップロードと同時にテクノロジーでの検出確率を向上するため、業界によるハッシュのデータベースを共有しています。
2017 年には、機械学習技術の利用を拡大することで、潜在的な違反コンテンツを検出できるようになり、結界としてそれらを人間によるレビュー対象に回すことができるようになりました。機械学習はパターンを検出するのに適しています。これにより、コンテンツが視聴される前でも、既に削除された他のコンテンツと類似するコンテンツ(全く同じでなくても)を検知できます。このシステムは、スパムや成人向けコンテンツなど、多くの場合同じように見えるコンテンツを報告する場合に特に効果を発揮します。機械学習は、ヘイトスピーチやその他の暴力的なコンテンツを報告することもできますが、 これらのカテゴリは文脈に大きく依存するため、微妙な決定を下すために人間によるレビューが重要になります。とはいえ、2019 年の第 2 四半期に削除した 900 万本の動画のうち、87% 以上が自動システムによって報告されています。
YouTube は、これらの自動検出システムに多くの投資を行っており、エンジニアチームは、継続的に改善しシステムをアップデートしています。たとえば、2019 年第 2 四半期のスパム検出システムのアップデートにより、スパムポリシーの違反によって閉鎖されたチャンネルの数は 50% 以上増加しています。
広く視聴される前にコンテンツを削除する
ルールに違反するコンテンツが全く視聴されないよう、もしくは視聴範囲が最低限に留まるよう、YouTube は数多の対策を講じています。前述の自動検出システムの改善により、コミュニティによる報告を待つことなくコンテンツを検出およびレビューするため、第 2 四半期には、自動報告された動画の 80% 以上が 1 回も視聴されることなく削除しています。
そして、コンテンツをすばやく削除する最善の方法は、問題の発生を予測することです。2018 年 1 月、YouTube は、インテリジェンス デスクを発足しました。 このチームは、不適切なコンテンツに関連する新しい傾向を見つけるために、ニュース、ソーシャルメディアやユーザーレポートを監視し、問題がより大きくなる前に対処できるように準備を行っています。
YouTube は、今後もポリシーに違反する動画を減らすことに注力していきます。ガイドラインに違反するコンテンツの検出、、削除に対し、Google 全体で 1 万人以上の担当者 を割り当てているのはこれが理由です。違法コンテンツを迅速に削除できるため、ポリシー違反動画の視聴回数は、YouTube 全体における視聴回数のごく一部に留まっています。
たとえば、先月にヘイトスピーチに関するポリシー違反で削除した約 3 万本の動画の視聴回数は、同時期に視聴された編み物関連動画の視聴回数のわずか 3% にしか過ぎません。 先週、「 YouTube コミュニティ ガイドラインの 適用について 」のレポートを更新しました。こちらでは、YouTube が削除したコンテンツ数、削除理由、どのように検出したかを報告しています。
また、過去数年間で、テクノロジーがこれまで以上に迅速に有害なコンテンツを YouTube から削除していることを明示するとともに、ポリシー開発、コンテンツレビュー、機械学習技術の活用とともに、人間が持つ専門的な知識がとても重要であることを示しています。
Please view the original post at http://youtube-jp.googleblog.com/2019/09/4-responsibility-remove.html