Google はオンラインでの児童性的虐待と児童搾取の撲滅に積極的に資金を投じ、独自の技術を利用して Google のプラットフォームでの違反の阻止、検出、削除、報告を行っています。
NGO や業界と協力して、技術的な専門知識を共有し、各団体による CSAM 撲滅を支援するツールを開発、共有するプログラムを提供しています。
児童安全ツールキットについてはこちらをご覧ください。
Google のプラットフォームとサービスにおける虐待の撲滅に対する取り組み
Google は当初から、児童性的虐待や児童搾取の撲滅に取り組んできました。児童性的搾取のコンテンツおよび行為を阻止、検出、削除、報告できるように、技術、人材や時間の面で多額のリソースを投じています。
取り組みの内容
虐待の
Google は、子どもが安全に使えるプロダクトを提供することで、虐待の発生を未然に防ぐことを目指しています。また、あらゆる分析情報と調査を活用して、進化する脅威や新たな違法行為の理解に努めています。違法な CSAM だけでなく、児童の性的虐待を助長し、子どもを危険にさらす可能性のあるコンテンツに広範囲に対処しています。
検出と
訓練を受けた専門チームと、機械学習に基づく分類器、画像や動画の「ハッシュ」(一意のデジタル フィンガープリント)を作成して以前に見つかった CSAM のハッシュと比較できるハッシュ マッチング テクノロジーなどの最先端技術を駆使して、CSAM を特定、報告します。CSAM を発見した場合は、全世界の法執行機関と連携している全米行方不明・被搾取児童センター(NCMEC)に報告します。
全世界的な
Google は、NCMEC などの組織と協力し、オンラインでの児童性的虐待の撲滅に向けた取り組みを全世界的に行っています。こうした取り組みの一環として、NGO や業界団体と強力なパートナーシップを築き、進化する児童の性的虐待と搾取の形態に関する共同理解を深めることに貢献しています。
取り組み状況
検索に
Google 検索では、情報が簡単に見つけることができます。しかし、違法なコンテンツや児童を性的に搾取するようなコンテンツが表示されるようなことはあってはなりません。Google のポリシーとして、児童への性的虐待の画像、または児童を性的に虐待している、危険にさらしている、搾取していると考えられるコンテンツに誘導する検索結果をブロックしています。これらの脅威は進化しており、それに対抗するため Google は常にアルゴリズムをアップデートしています。
CSAM コンテンツを求めているとみなされた検索には、特別な防護を適用しています。CSAM を求めるような検索クエリの場合は、露骨な性的描写を含むコンテンツを検索結果から除外します。露骨なアダルト コンテンツを求めるクエリの場合は、児童と性的コンテンツの関連性を断つために、児童を含む画像を検索結果に表示しません。多くの国では、明らかに CSAM に関連するクエリを入力したユーザーに対し、児童への性的虐待の画像が違法であることを示す警告が目立つように表示されます。また、英国の Internet Watch Foundation、カナダの Centre for Child Protection、コロンビアの Te Protejo といった信頼できる組織に、こうしたコンテンツを報告する方法についての情報が表示されます。このような警告が表示されると、ユーザーがそのようなコンテンツを探し続ける可能性は低くなります。
搾取的な
YouTube は、児童の性的対象化や搾取にあたる YouTube 上の動画、再生リスト、サムネイル、コメントに対して常に明確なポリシーを提示しています。機械学習システムを使用してこのポリシーに対する違反を積極的に検出しており、システムによって検出された違反、ユーザーや YouTube 公認報告者によって報告された違反の対象を、世界中の審査担当者が迅速に削除しています。
コンテンツが YouTube のポリシーに違反していなくても、そこに含まれる未成年者がオンラインまたはオフラインで悪用される危険性があることを YouTube は認識しています。そのため、ポリシーの適用に対しては特に周到なアプローチを取っており、機械学習システムを活用して、未成年者を危険にさらす可能性のある動画を積極的に特定し、ライブ配信の制限、コメントの無効化、おすすめの動画の制限などの保護を広範囲に適用しています。
CSAM 透明性レポート
2021 年、Google はオンラインにおける児童性的虐待のコンテンツの撲滅に向けた取り組みについて、NCMEC への報告件数を詳細に記した透明性レポートを発表しました。このレポートには、YouTube における取り組み、検索結果から CSAM を検出して削除する仕組み、サービス全体における CSAM 違反により無効になったアカウントの数などのデータも掲載されています。
透明性レポートには、NCMEC と共有している CSAM のハッシュ数に関する情報も含まれています。これらのハッシュは、他のプラットフォームが CSAM を広範囲に特定するのに役立ちます。NCMEC のハッシュ データベースへの寄与は、業界全体で CSAM を撲滅するための重要な手段のひとつです。CSAM の再流通や、それに伴う被虐待児童の 2 次被害を減らすことができるためです。
Google プロダクトに
Google は、Google のプロダクトを利用する子どもたちを性的な誘いかけ、セクストーション、人身売買やその他の児童性的搾取から保護する取り組みを行っています。子どもが安全に使えるプロダクトを目指す取り組みの一環として、ユーザーが児童性的虐待のコンテンツを関係当局に通報する際に役立つ情報を提供しています。
Gmail やハングアウトなどの Google プロダクトで、児童が危険にさらされていると思われる場合は、こちらのフォームから報告することができます。YouTube でも不適切なコンテンツを報告できます。Google Meet 内の不適切なコンテンツについては、ヘルプセンター経由で、またはプロダクト内で直接報告することが可能です。また、他ユーザーからの子どもへの連絡をブロックする方法など、いじめや嫌がらせへに対応するための情報も提供しています。子どもの安全に関するポリシーについて詳しくは、YouTube のコミュニティ ガイドラインと Google セーフティ センターをご覧ください。
アライアンスとプログラム
Google は、Technology Coalition、ICT Coalition、WeProtect Global Alliance、INHOPE、Fair Play Alliance などの連合のメンバーとして積極的に活動しており、企業や NGO と協力して、オンラインでやり取りされる CSAM を阻止し、児童の性的搾取を防止するソリューションを開発しています。
共同で児童の安全に関する研究に資金を提供し、透明性レポート、プロダクト内での検出、運用プロセスに関するインサイトなどのツールや知識を共有します。
Google.org に
Google.org は、INHOPE や ECPAT International など、児童の性的虐待や搾取の撲滅を主導している団体に助成金を提供しています。さらに 2003 年以降、児童性的虐待の通報ホットラインを運営する NGO や慈善団体に約 9,000 万ドルの無料広告予算を提供し、支援を最も必要としている人々に働きかけができるようサポートしています。
Google Fellow プログラム
NCMEC や Thorn など、児童性的虐待の撲滅に取り組んでいる団体に、技術的なフェローシップのための資金を提供しています。また、Crimes Against Children Conference や National Law Enforcement Training on Child Exploitation などのフォーラムを通じて、児童に対するオンライン犯罪を調査する法執行機関向けにトレーニングを提供しています。