Nous consacrons beaucoup de ressources à la lutte contre l'exploitation et les abus sexuels à l'endroit des enfants dans le contenu en ligne, et nous mettons à profit notre technologie propriétaire pour dissuader, détecter, retirer et signaler les contenus infractionnels sur nos plateformes.

Nous nous associons à des ONG et à des acteurs du secteur pour mener des programmes visant à partager notre expertise technique, et pour développer et partager des outils qui aident les organisations à lutter contre le MPASE.

Apprenez-en plus sur notre trousse de protection de la sécurité des enfants.

Nous luttons contre les abus sur nos propres plateformes et services

Google s'est engagée depuis ses débuts dans la lutte contre l'exploitation et les abus sexuels à l'endroit des enfants sur ses services. Nous consacrons d'importantes ressources, que ce soit en technologie, en main-d'œuvre ou en temps, à la dissuasion, à la détection, au retrait et au signalement des contenus et des comportements d'exploitation sexuelle des enfants.

Quelles mesures prenons-nous?

Prévention des abus

Prévention des abus


Notre objectif est de prévenir les abus en veillant à ce que les enfants puissent utiliser nos produits en toute sécurité. Nous mettons également à profit l'ensemble des connaissances et des études à notre disposition pour comprendre l'évolution des menaces ainsi que les nouvelles formes d'infractions. Les mesures que nous prenons ne sont pas destinées à lutter uniquement contre le MPASE illégal, mais aussi contre tout contenu qui encourage les abus sexuels sur des enfants et qui peut mettre ceux-ci en danger.

Détection et signalement

Détection et signalement


Nous détectons et signalons le MPASE grâce au travail d'équipes de spécialistes dûment formés ainsi qu'à des technologies de pointe, notamment des classificateurs à apprentissage automatique et la correspondance par hachage, laquelle consiste à créer un « hachage », c'est-à-dire une empreinte digitale unique, pour une image ou une vidéo et à comparer celui-ci aux hachages de MPASE connus. Lorsque nous trouvons du MPASE, nous le signalons au National Center for Missing & Exploited Children (NCMEC), qui assure la liaison avec des organismes d'application de la loi dans le monde entier.

Collaborations dans le monde entier

Collaborations dans le monde entier


Nous collaborons avec le NCMEC et d'autres organisations à travers le monde dans le cadre de nos efforts pour lutter contre les abus sexuels sur des enfants dans le contenu en ligne. Ces efforts consistent notamment à établir des partenariats solides avec des ONG ainsi que des coalitions sectorielles dans le but de favoriser l'approfondissement de notre compréhension commune de la nature évolutive de l'exploitation et des abus sexuels à l'endroit des enfants.

Comment les mettons-nous en œuvre?

Nous luttons contre les abus sexuels sur des enfants dans la recherche

Nous luttons contre les abus sexuels sur des enfants dans la recherche


La recherche Google permet de trouver facilement des informations, mais nous ne voulons en aucun cas que les recherches affichent des contenus illégaux ou qui montrent des images d'exploitation sexuelle d'enfants. Notre politique à cet égard consiste à bloquer les résultats de recherche qui mènent à des images d'abus sexuels sur des mineurs/enfants, ou à du matériel montrant des images de maltraitance, de mise en danger ou d'exploitation sexuelle d'enfants. Nous mettons constamment à jour nos algorithmes pour lutter contre ces menaces en constante évolution.

Nous appliquons des mesures de protection supplémentaires aux recherches visant manifestement à trouver du MPASE. Nous filtrons les résultats présentant un contenu sexuel explicite si la requête de recherche semble viser à trouver du MPASE. Dans le cas de requêtes ciblant du contenu explicite pour adultes, la recherche n'affiche pas d'images montrant des enfants afin de rompre l'association entre ceux-ci et le contenu de nature sexuelle. Dans de nombreux pays, les utilisateurs qui saisissent des requêtes visant manifestement à trouver du MPASE reçoivent une mise en garde bien visible les avertissant que les images d'abus sexuels sur des mineurs/enfants sont illégales, et leur indiquant comment signaler ce genre de contenu à des organisations de confiance telles que l'Internet Watch Foundation au Royaume-Uni, le Centre canadien de protection de l'enfance et Te Protejo en Colombie. Les utilisateurs qui reçoivent de telles mises en garde sont moins enclins à poursuivre leur recherche.

Les efforts de YouTube pour lutter contre les vidéos et le matériel présentant de l'exploitation

Les efforts de YouTube pour lutter contre les vidéos et le matériel présentant de l'exploitation


Nous avons toujours appliqué des politiques claires en ce qui concerne les vidéos, les listes de lecture, les miniatures et les commentaires sur YouTube présentant un contenu qui sexualise des enfants ou qui montre des images d'exploitation sexuelle d'enfants. Nous utilisons des systèmes d'apprentissage automatique pour détecter en amont les cas de non-respect de ces politiques, et notre équipe internationale d'évaluateurs humains se charge de retirer rapidement les contenus non conformes ainsi détectés ou signalés par les utilisateurs et nos signaleurs de confiance.

Bien que plusieurs contenus montrant des mineurs respectent nos politiques, nous reconnaissons que ces derniers restent néanmoins vulnérables à l'exploitation en ligne ou hors ligne. C'est pourquoi nous adoptons une approche particulièrement prudente quant à l'application de ces politiques. Nos systèmes d'apprentissage automatique permettent de détecter en amont les vidéos qui pourraient mettre des mineurs en danger, et d'appliquer nos mécanismes de protection à grande échelle tels que la restriction des fonctionnalités en direct, la désactivation des commentaires et la limitation des recommandations de vidéos.

Notre rapport Transparence des informations en matière de MPASE

Notre rapport Transparence des informations en matière de MPASE


En 2021, nous avons lancé un rapport Transparence des informations portant sur les efforts déployés par Google pour lutter contre le matériel présentant de l'abus sexuel sur des enfants dans le contenu en ligne. Il fournit des détails sur le nombre de signalements effectués auprès du NCMEC, de même que des données sur les mesures que nous prenons sur YouTube, sur la manière dont nous détectons et retirons les occurrences de MPASE dans les résultats de recherche, et sur le nombre de comptes désactivés pour non-respect des politiques en matière de MPASE sur l'ensemble de nos services.

Le rapport donne aussi des renseignements sur le nombre de hachages associés à du MPASE que nous partageons avec le NCMEC. Ces hachages aident d'autres plateformes à détecter le MPASE à grande échelle. La contribution à la base de données de hachages du NCMEC constitue l'un des principaux moyens par lesquels nous et d'autres acteurs du secteur pouvons soutenir la lutte contre le MPASE. En effet, ces efforts de contribution permettent de limiter la remise en circulation de ce genre de matériel et d'éviter que les enfants victimes d'abus subissent à nouveau un préjudice.

Signalement de comportements inappropriés sur nos produits

Signalement de comportements inappropriés sur nos produits


Nous voulons protéger les enfants qui utilisent nos produits contre la corruption, la sextorsion, le trafic et d'autres formes d'exploitation sexuelle. Dans le cadre de notre travail visant à s'assurer que les enfants peuvent utiliser nos produits en toute sécurité, nous fournissons des renseignements utiles pour aider les utilisateurs à signaler aux autorités compétentes le matériel présentant de l'abus sexuel sur des enfants.

Les utilisateurs qui soupçonnent qu'un enfant a été mis en danger sur des produits Google tels que Gmail ou Hangouts peuvent signaler la situation à l'aide de ce formulaire. Ils peuvent également signaler les contenus inappropriés trouvés sur YouTube, et c'est aussi possible de le faire pour les abus survenus dans Google Meet, soit par l'intermédiaire du centre d'aide, soit directement dans le produit. De plus, nous fournissons des renseignements sur la manière de répondre aux préoccupations liées à l'intimidation et au harcèlement ainsi que la marche à suivre pour bloquer des utilisateurs afin de les empêcher d'entrer en contact avec un enfant. Pour en savoir plus sur nos politiques de sécurité des enfants, consultez le règlement de la communauté YouTube et le centre de sécurité Google.

Nous créons et partageons des outils pour lutter contre les abus sexuels sur des enfants

Nous mettons à profit notre expertise technique et nos innovations pour protéger les enfants, et nous aidons les autres à faire de même. Nous offrons gracieusement notre technologie de pointe aux organisations admissibles qui souhaitent améliorer leurs opérations, les accélérer et en renforcer la sécurité, et nous encourageons les organisations que nos outils de protection de la sécurité des enfants intéressent à en faire la demande.

API Content Safety

Google développe depuis de nombreuses années des classificateurs d'apprentissage automatique qui nous permettent de détecter en amont des images jamais vues auparavant présentant de l'abus sexuel sur des enfants. Lorsque de telles images sont détectées, nous les examinons, et si nous confirmons qu'il s'agit de MPASE, nous les retirons et les signalons sans délai. Cette technologie est à la base de l'API Content Safety, qui aide les organisations à classer et à hiérarchiser les contenus potentiellement abusifs en vue de leur examen. Au cours de la première moitié de 2021, nos partenaires ont utilisé l'API Content Safety pour classifier plus de six milliards d'images, ce qui les a aidés à détecter plus rapidement et avec plus de précision les contenus problématiques aux fins de signalement aux autorités.

CSAI Match

En 2014, les ingénieurs de YouTube ont développé et adopté une technologie permettant de baliser ainsi que de retirer de nos services les vidéos connues comme constituant du MPASE. Nous partageons cette technologie avec d'autres sous la forme de l'API CSAI Match, qui aide à détecter les remises en ligne de matériel présentant de l'abus sexuel sur des enfants trouvé dans des vidéos précédemment analysées. La technologie CSAI Match est utilisée tant par les ONG que par les entreprises pour les aider à établir des correspondances avec notre base de données de contenus abusifs connus, de sorte qu'elles puissent agir de manière responsable, conformément aux lois et aux réglementations locales.

Alliances et programmes

Nous participons activement à plusieurs coalitions, telles que la Technology Coalition, l'ICT Coalition, la WeProtect Global Alliance, la ligne d'assistance INHOPE et la Fair Play Alliance, qui réunissent des entreprises et des ONG en vue de développer des solutions visant à contrer l'échange de MPASE en ligne ainsi qu'à prévenir l'exploitation sexuelle des enfants.

Ensemble, nous finançons la recherche en matière de protection de la sécurité des enfants, et partageons des outils et des connaissances, tels que nos points de vue concernant les rapports sur les mesures de transparence, la détection dans les produits et les processus opérationnels.

En partenariat avec

Le programme Ad Grants par l'intermédiaire de Google.org

Le programme Ad Grants par l'intermédiaire de Google.org


Google.org offre des subventions aux organisations qui luttent contre l'exploitation et les abus sexuels à l'endroit des enfants, comme INHOPE et ECPAT International. En outre, depuis 2003, Google.org a gracieusement offert un budget publicitaire d'environ 90 millions de dollars aux ONG et aux organismes caritatifs qui fournissent des lignes d'assistance de signalement de cas d'abus sexuels sur des enfants, les aidant ainsi à faire connaître leurs services à ceux qui en ont le plus besoin.

Programme Google Fellow

Programme Google Fellow


Nous finançons également des groupes techniques au sein d'organisations spécialisées dans la lutte contre les abus sexuels sur des enfants, comme le NCMEC et Thorn. De plus, Google offre des formations aux responsables de l'application de la loi qui enquêtent sur les cybercrimes commis contre les enfants par l'intermédiaire de forums tels que la Crimes Against Children Conference et l'événement de formation National Law Enforcement Training on Child Exploitation.