Meilleure hiérarchisation des priorités

Meilleure hiérarchisation des priorités


Les API contribuent à la lutte contre l'exploitation des enfants en ligne en faisant en sorte que le contenu abusif soit examiné en priorité par des humains.

Détection rapide

Détection plus rapide


En détectant la nature du contenu plus rapidement, on augmente la probabilité que les victimes puissent être identifiées et protégées contre de futurs abus.

Opérations plus sûres

Opérations plus sûres


En rendant les files d'attente d'examen plus efficaces et moins encombrées, on allège également le travail parfois difficile des modérateurs de contenu.

En savoir plus sur nos outils

Nos outils présentent des capacités complémentaires. Ils peuvent être utilisés conjointement et avec d'autres solutions pour répondre à différents besoins.

API Content Safety

API Content Safety

Classification d'images n'ayant jamais été vues

CSAI Match

CSAI Match

Établissement de correspondances avec des segments vidéo abusifs connus

API Content Safety

Cas d'utilisation : classification d'images n'ayant jamais été analysées


Le classificateur de l'API Content Safety s'appuie sur l'accès programmatique et l'intelligence artificielle pour aider nos partenaires à classifier et à prioriser les milliards d'images à examiner. Plus la priorité attribuée par le classificateur est élevée, plus l'image est susceptible de présenter un contenu abusif, ce qui peut aider les partenaires à hiérarchiser leurs examens par des humains et à déterminer eux-mêmes la nature du contenu. L'API Content Safety formule une recommandation quant à la priorité à accorder au contenu qui lui est envoyé. Les partenaires doivent réaliser leur propre examen afin de déterminer s'ils doivent prendre des mesures à l'égard du contenu.

Sur le plan opérationnel, nous recommandons aux organisations d'utiliser l'API Content Safety juste avant le processus d'examen manuel, ce qui les aidera à classifier et à hiérarchiser les contenus, et à organiser leur file d'attente. L'API Content Safety peut être utilisée en parallèle avec d'autres solutions, comme l'outil de hachage vidéo CSAI Match de YouTube ou la technologie PhotoDNA de Microsoft, qui répondent chacune à des besoins différents.

Fonctionnement

Récupération de l'image

1. Récupération de l'image

Les images sont récupérées par le partenaire sous différentes formes, par exemple les images signalées par un utilisateur, ou détectées par les robots d'exploration ou les filtres que le partenaire a créés pour modérer les images sur sa plateforme.

Partenaire

Images signalées par les utilisateurs

Robots d'exploration

Filtres préalables

(pornographie et autres classificateurs)

Examen par l'API

2. Examen par l'API

Les fichiers d'images sont ensuite envoyés à l'API Content Safety au moyen d'un simple appel d'API. Ils sont soumis à des classificateurs pour déterminer la priorité d'examen, puis la valeur de priorité de chacune des images est renvoyée au partenaire.

Google

API Content Safety

Technologie de classificateur

Examen manuel

3. Examen manuel

Les partenaires utilisent la valeur de priorité pour hiérarchiser les images qui doivent faire l'objet d'un examen manuel en priorité.

Partenaire

Examen manuel

Prise de mesures

4. Prise de mesures

Une fois l'examen manuel des images terminé, le partenaire peut alors prendre des mesures à l'égard du contenu, conformément aux lois et réglementations locales.

Partenaire

Prise de mesures appropriées

CSAI Match

Cas d'utilisation : établissement de correspondances avec des segments vidéo abusifs connus


CSAI Match est la technologie propriétaire que YouTube utilise pour lutter contre les vidéos en ligne qui présentent des IASME (images d'abus sexuels sur des mineurs/enfants). Cette technologie a été la première à mettre à profit la correspondance par hachage pour détecter les contenus vidéo non conformes, et elle nous permet de le faire malgré la grande quantité de contenus conformes parmi lesquels ceux-ci se trouvent. Lorsqu'une correspondance avec un contenu non conforme est trouvée, elle est ensuite signalée aux partenaires, qui se chargeront de l'examiner, de confirmer qu'il s'agit bien d'un contenu non conforme, et de le signaler de manière responsable, conformément aux lois et réglementations locales. YouTube met sa technologie CSAI Match à la disposition de ses partenaires du secteur et des ONG. Nous leur donnons accès à un logiciel d'empreintes digitales et à une API qui les aident à détecter les correspondances avec notre base de données de contenus abusifs connus.

Les plateformes en ligne peuvent empêcher l'affichage et le partage de contenus non conformes sur leurs sites en utilisant la technologie CSAI Match, qui leur permet de comparer leurs contenus avec l'un des plus grands index de contenus connus présentant des IASME. L'intégration de CSAI Match au système des partenaires est facile à réaliser, ce qui simplifie l'adaptation à grande échelle de la gestion des contenus dont le traitement est délicat.

Fonctionnement

Création d'empreintes digitales de vidéos

1. Création d'empreintes digitales de vidéos

Une vidéo est téléversée sur la plateforme du partenaire. Ensuite, le créateur d'empreinte digitale de CSAI Match, qui est exécuté sur la plateforme du partenaire, crée un fichier d'empreinte digitale pour ce fichier vidéo, c'est-à-dire un identifiant numérique unique qui représente son contenu.

Partenaire

Fichier vidéo

Créateur d'empreinte digitale

Fichier d'empreinte digitale

Examen par l'API

2. Examen par l'API

Le partenaire envoie le fichier d'empreinte digitale au moyen de l'API CSAI Match pour qu'il soit comparé aux autres fichiers figurant dans le référentiel d'empreintes digitales de YouTube. Ce référentiel contient les empreintes digitales de contenus abusifs connus qui ont été détectés par YouTube et Google.

YouTube

API CSAI Match

Technologie CSAI Match

IASME partagées

Référentiel d'empreintes digitales

Examen manuel

3. Examen manuel

Une correspondance positive ou négative est renvoyée au partenaire une fois le processus d'appel à l'API terminé. Celui-ci procède alors à l'examen manuel de la vidéo en fonction des informations sur la correspondance pour vérifier qu'elle contient bien des IASME.

Partenaire

Examen manuel

Prise de mesures

4. Prise de mesures

Une fois que les images ont été examinées, le partenaire peut prendre des mesures à l'égard du contenu conformément aux lois et réglementations locales.

Partenaire

Prise de mesures appropriées

API Content Safety

Cas d'utilisation : classification d'images n'ayant jamais été analysées

Le classificateur de l'API Content Safety s'appuie sur l'accès programmatique et l'intelligence artificielle pour aider nos partenaires à classifier et à prioriser les milliards d'images à examiner. Plus la priorité attribuée par le classificateur est élevée, plus l'image est susceptible de présenter un contenu abusif, ce qui peut aider les partenaires à hiérarchiser leurs examens par des humains et à déterminer eux-mêmes la nature du contenu. L'API Content Safety formule une recommandation quant à la priorité à accorder au contenu qui lui est envoyé. Les partenaires doivent réaliser leur propre examen afin de déterminer s'ils doivent prendre des mesures à l'égard du contenu.

Sur le plan opérationnel, nous recommandons aux organisations d'utiliser l'API Content Safety juste avant le processus d'examen manuel, ce qui les aidera à classifier et à hiérarchiser les contenus, et à organiser leur file d'attente. L'API Content Safety peut être utilisée en parallèle avec d'autres solutions, comme l'outil de hachage vidéo CSAI Match de YouTube ou la technologie PhotoDNA de Microsoft, qui répondent chacune à des besoins différents.

CSAI Match

Cas d'utilisation : établissement de correspondances avec des segments vidéo abusifs connus

CSAI Match est la technologie propriétaire que YouTube utilise pour lutter contre les vidéos en ligne qui présentent des IASME (images d'abus sexuels sur des mineurs/enfants). Cette technologie a été la première à mettre à profit la correspondance par hachage pour détecter les contenus vidéo non conformes, et elle nous permet de le faire malgré la grande quantité de contenus conformes parmi lesquels ceux-ci se trouvent. Lorsqu'une correspondance avec un contenu non conforme est trouvée, elle est ensuite signalée aux partenaires, qui se chargeront de l'examiner, de confirmer qu'il s'agit bien d'un contenu non conforme, et de le signaler de manière responsable, conformément aux lois et réglementations locales. YouTube met sa technologie CSAI Match à la disposition de ses partenaires du secteur et des ONG. Nous leur donnons accès à un logiciel d'empreintes digitales et à une API qui les aident à détecter les correspondances avec notre base de données de contenus abusifs connus.

Les plateformes en ligne peuvent empêcher l'affichage et le partage de contenus non conformes sur leurs sites en utilisant la technologie CSAI Match, qui leur permet de comparer leurs contenus avec l'un des plus grands index de contenus connus présentant des IASME. L'intégration de CSAI Match au système des partenaires est facile à réaliser, ce qui simplifie l'adaptation à grande échelle de la gestion des contenus dont le traitement est délicat.

Formulaire d'intérêt pour la trousse de protection de la sécurité des enfants

Vous souhaitez utiliser notre trousse?

Donnez quelques détails sur votre organisation pour enregistrer votre demande

Afficher le formulaire d'intérêt

Témoignages

FAQ

API Content Safety

L'API Content Safety fonctionne-t-elle pour les vidéos?

L'API Content Safety est conçue pour les images, mais grâce à la technologie CSAI Match de YouTube, les organisations peuvent accéder à un logiciel d'empreintes digitales et à une API qui permet d'établir des correspondances avec notre base de données de contenu vidéo abusif connu. Apprenez-en plus.

Qui peut s'inscrire pour accéder à la technologie et à l'API Content Safety?

Les tiers du secteur et de la société civile qui veulent protéger leur plateforme contre les abus peuvent s'inscrire pour accéder à l'API Content Safety. Les demandes doivent être approuvées.

Pourquoi rendez-vous ces outils si largement accessibles?

Nous pensons que la meilleure approche pour lutter contre l'exploitation des enfants dans le contenu en ligne consiste à collaborer avec d'autres entreprises et ONG. Nous œuvrons depuis longtemps au sein de l'industrie ainsi qu'avec diverses ONG en vue de soutenir la création de nouveaux outils basés sur les données, de renforcer les capacités techniques et de sensibiliser le public. Nous considérons que rendre ces outils largement accessibles est un élément essentiel de cette lutte parce qu'ils permettent à nos partenaires d'utiliser l'IA pour mieux examiner le contenu à grande échelle.

CSAI Match

La technologie CSAI Match fonctionne-t-elle pour les images?

La technologie CSAI Match est conçue pour les vidéos, mais grâce à l'API Content Safety de Google, un ensemble d'outils est mis à la disposition des entreprises et des ONG partenaires afin d'offrir une classification des images basée sur l'apprentissage automatique. Apprenez-en plus.

Quels renseignements sont affichés lorsqu'une correspondance est établie?

La correspondance permettra de cerner la partie de la vidéo qui contient des IASME connues et de classifier le type de contenu dans une catégorie normalisée.

Qu'est-ce qui rend la technologie CSAI Match si efficace?

La technologie CSAI Match détecte les segments quasi identiques d'IASME connues. Cela comprend non seulement les doublons intégraux que la correspondance de hachage MD5 révélerait, mais aussi les quasi-doublons qui pourraient être des réencodages, des brouillages, des troncatures ou des mises à l'échelle de vidéos contenant des IASME, même lorsqu'une vidéo ne contient qu'une petite partie d'IASME pouvant avoir été mélangée à du contenu sans IASME. Les partenaires exécutent un programme binaire d'empreinte digitale pour produire une « empreinte digitale » de la vidéo, soit une séquence d'octets similaire à un hachage MD5. Celle-ci est ensuite envoyée au service CSAI Match de Google, qui est spécialement conçu pour assurer une comparaison efficace d'une vidéo avec le corpus de références d'IASME connues de YouTube.