我们在打击在线儿童性虐待和性剥削内容方面投入巨大,并利用我们的专有技术在自己的平台中遏制、检测、移除和举报违规内容。

我们在各种项目中与非政府组织和业界合作来分享我们的技术专业知识,并开发和分享工具来帮助组织打击儿童性虐待内容 (CSAM)。

详细了解我们的儿童安全工具包

我们自己的平台和服务中打击虐待内容

从成立伊始,Google 就一直致力于在旗下的服务中打击儿童性虐待和性剥削内容。我们投入了大量技术、人力和时间资源来阻止、检测、移除和举报儿童性剥削内容和行为。

我们在做什么?

防范儿童性虐待内容

防范儿童性虐待内容


我们通过确保儿童可以安全地使用我们的产品来防止儿童性虐待内容。我们还利用全部可用的数据分析和研究,了解不断演变的威胁和新的冒犯方式。我们不仅对非法儿童性虐待内容 (CSAM) 采取行动,还对宣扬儿童性虐待和可能让儿童面临风险的广泛内容采取行动。

检测和举报

检测和举报


我们借助训练有素的专家团队和一流技术识别和举报儿童性虐待内容 (CSAM),其中包括机器学习分类器和哈希匹配技术。哈希匹配技术会为图片或视频创建“哈希值”(即唯一数字指纹),从而将其与已知儿童性虐待内容 (CSAM) 的哈希值做对比。发现儿童性虐待内容 (CSAM) 后,我们将依法向美国全国失踪与受虐儿童服务中心 (NCMEC) 举报,该中心与世界各地的执法机构协同合作。

全球协作

全球协作


我们与美国全国失踪与受虐儿童服务中心 (NCMEC) 和世界各地的其他组织合作,共同打击在线儿童性虐待内容。为此,我们与非政府组织和业界联盟建立强大合作伙伴关系,以便大家对儿童性虐待和性剥削不断演变的性质有共同的了解。

我们是怎么做的?

在 Google 搜索中打击儿童性虐待内容

在 Google 搜索中打击儿童性虐待内容


Google 搜索致力于让人们更容易找到信息,但我们从来不想让 Google 搜索呈现非法内容或儿童性剥削内容。如果搜索结果导向到儿童性虐待图像或看似在性方面伤害、危害或以其他方式剥削儿童的内容,我们会根据政策屏蔽相应搜索结果。我们会持续更新我们的算法,应对这些不断演变的威胁。

我们会对我们认为要寻找儿童性虐待内容 (CSAM) 的搜索执行额外保护措施。如果搜索查询看起来在寻找儿童性虐待内容 (CSAM),我们会滤除色情内容结果;如果查询要寻找成人色情内容,Google 搜索不会返回有儿童的相关图片,从而消除儿童与色情内容之间的关联。在许多国家/地区,如果用户输入的查询明显与儿童性虐待内容 (CSAM) 相关,则会看到一条醒目警告,提醒儿童性虐待图像是非法内容,并告知如何向可靠组织举报此内容,例如英国网络观察基金会、加拿大儿童保护中心和哥伦比亚 Te Protejo。当看到这些警告时,用户不大可能继续查找此类材料。

YouTube 为打击剥削性质的视频和材料所做的工作

YouTube 为打击剥削性质的视频和材料所做的工作


我们一直有明确的政策,反对在 YouTube 上的视频、播放列表、缩略图和评论中包含儿童性虐待或剥削内容。我们使用机器学习系统主动检测违反这些政策的行为,并通过世界各地的人工审核者快速移除我们系统检测到的违规内容,或由用户和我们可信赖的举报者所标记的违规内容。

一些涉及未成年人的内容可能未违反我们的政策,但我们认识到,未成年人可能面临在线或线下剥削风险。鉴于此,我们在执行这些政策时采取特别谨慎的做法。我们的机器学习系统会主动识别可能让未成年人陷入危险的视频,并大规模应用我们的保护措施,例如限制直播功能、停用评论和限制视频推荐。

我们的儿童性虐待内容 (CSAM) 透明度报告

我们的儿童性虐待内容 (CSAM) 透明度报告


2021 年,我们发布了关于 Google 打击在线儿童性虐待内容相关工作的透明度报告,详细介绍了我们向美国全国失踪与受虐儿童服务中心 (NCMEC) 提交了多少举报信息。此报告还提供了以下方面的数据:我们在 YouTube 平台上所做的工作、我们如何从 Google 搜索的结果中检测并移除儿童性虐待内容 (CSAM),以及我们在各种服务中停用了多少违反儿童性虐待内容 (CSAM) 政策的帐号。

此透明度报告还包含我们与美国全国失踪与受虐儿童服务中心 (NCMEC) 分享的儿童性虐待内容 (CSAM) 哈希数量的信息。这些哈希数据有助于其他平台大规模识别儿童性虐待内容 (CSAM)。向美国全国失踪与受虐儿童服务中心 (NCMEC) 哈希数据库贡献哈希数据是我们与业界其他方帮助打击儿童性虐待内容 (CSAM) 的重要途径之一,因为这有助于减少这类资料的再循环,并避免遭到性虐待的儿童再次受到迫害。

举报我们产品中的不当行为

举报我们产品中的不当行为


我们希望保护使用我们产品的儿童,避免遭受诱骗、性勒索、拐卖和其他形式的儿童性剥削。我们致力于向儿童提供可安全使用的产品,包括提供有用信息,帮助用户向有关当局举报儿童性虐待内容。

如果用户怀疑在 Gmail 或 Hangouts 等 Google 产品上有儿童遭遇危险,用户可以直接使用此表单进行举报。用户还可以在 YouTube 上举报不当内容,以及通过帮助中心或直接在产品中举报 Google Meet 中的滥用行为。我们还提供了一些信息来指导人们如何处理欺凌和骚扰方面的忧虑,包括如何阻止用户联系儿童的指导信息。如需详细了解我们的儿童安全政策,请参阅 YouTube 的《社区准则》和 Google 安全中心。

开发分享可协助打击儿童性虐待内容的工具

我们利用我们的技术专业知识和创新举措保护儿童,并尽力推行这样的做法。我们向符合条件的组织免费提供先进技术,让他们的运营更好、更快、更安全,并鼓励有兴趣的组织申请使用我们的儿童安全工具。

Content Safety API

多年来,Google 一直致力于开发机器学习分类器,以便我们能够主动识别从未见过的儿童性虐待内容 (CSAM) 图像,然后对其进行审核,并在确认图像属于儿童性虐待内容 (CSAM) 后尽快将其移除并进行举报。这项技术为 Content Safety API 提供支持,可帮助相关组织对要审核的潜在儿童性虐待内容进行分类并确定优先级。在 2021 年上半年,合作伙伴利用 Content Safety API 对超过 60 亿张图片进行了分类,有助于他们更快、更准确地识别存在问题的内容,以便向当局举报。

CSAI Match

2014 年,YouTube 工程师开发并采用了相关技术,在我们的服务中标记并移除已知的儿童性虐待内容 (CSAM) 视频。我们通过 CSAI Match API 与其他方分享了这项技术,此 API 有助于识别重新上传的文件是否包含之前在视频中识别的儿童性虐待内容。如今,许多非政府组织和公司都利用 CSAI Match,对照我们的已知儿童性虐待内容数据库来识别匹配内容,然后按照本地法律法规以负责任的方式采取措施。

联盟与计划

我们积极参与多个联盟,包括 Technology Coalition、ICT Coalition、WeProtect Global Alliance、INHOPE 和 Fair Play Alliance。这些联盟让众多公司和非政府组织团结在一起,共同开发相关解决方案来遏制在线儿童性虐待内容 (CSAM) 散播行为,并保护儿童免遭性剥削。

我们携手为儿童安全研究提供资助,并分享相关工具和知识,例如我们对透明度报告的数据分析、产品内检测功能和运作流程。

合作伙伴:

通过 Google.org 提供广告助公益

通过 Google.org 提供广告助公益


Google.org 向 INHOPE 和 ECPAT International 等致力于打击儿童性虐待和性剥削的组织提供公益金。此外,自 2003 年以来,Google.org 已向设有儿童性虐待举报热线的非政府组织和慈善机构提供了约 9000 万美元的免费广告预算,帮助他们为最需要支持的受害者提供帮助。

Google Fellow 计划

Google Fellow 计划


我们为 NCMEC 和 Thorn 等致力于打击儿童性虐待的组织提供技术研发资助。此外,Google 还通过各种论坛为相关执法官员提供培训,以便他们调查针对儿童的在线犯罪行为,例如反侵害儿童犯罪全国大会 (Crimes Against Children Conference) 以及反儿童剥削国家执法培训 (National Law Enforcement Training on Child Exploitation)。