Meilleure hiérarchisation des priorités
Les API contribuent à la lutte contre l'exploitation des enfants en ligne en faisant en sorte que le contenu abusif soit examiné en priorité par des humains.
Détection plus rapide
En détectant la nature du contenu plus rapidement, on augmente la probabilité que les victimes puissent être identifiées et protégées contre de futurs abus.
Opérations plus sûres
En rendant les files d'attente d'examen plus efficaces et moins encombrées, on allège également le travail parfois difficile des modérateurs de contenu.
En savoir plus sur nos outils
Nos outils présentent des capacités complémentaires. Ils peuvent être utilisés conjointement et avec d'autres solutions pour répondre à différents besoins.
API Content Safety
Classification d'images n'ayant jamais été vues
CSAI Match
Établissement de correspondances avec des segments vidéo abusifs connus
API Content Safety
Cas d'utilisation : classification d'images n'ayant jamais été analysées
Le classificateur de l'API Content Safety s'appuie sur l'accès programmatique et l'intelligence artificielle pour aider nos partenaires à classifier et à prioriser les milliards d'images à examiner. Plus la priorité attribuée par le classificateur est élevée, plus l'image est susceptible de présenter un contenu abusif, ce qui peut aider les partenaires à hiérarchiser leurs examens par des humains et à déterminer eux-mêmes la nature du contenu. L'API Content Safety formule une recommandation quant à la priorité à accorder au contenu qui lui est envoyé. Les partenaires doivent réaliser leur propre examen afin de déterminer s'ils doivent prendre des mesures à l'égard du contenu.
Sur le plan opérationnel, nous recommandons aux organisations d'utiliser l'API Content Safety juste avant le processus d'examen manuel, ce qui les aidera à classifier et à hiérarchiser les contenus, et à organiser leur file d'attente. L'API Content Safety peut être utilisée en parallèle avec d'autres solutions, comme l'outil de hachage vidéo CSAI Match de YouTube ou la technologie PhotoDNA de Microsoft, qui répondent chacune à des besoins différents.
Fonctionnement
1. Récupération de l'image
Les images sont récupérées par le partenaire sous différentes formes, par exemple les images signalées par un utilisateur, ou détectées par les robots d'exploration ou les filtres que le partenaire a créés pour modérer les images sur sa plateforme.
Partenaire
Images signalées par les utilisateurs
Robots d'exploration
Filtres préalables
(pornographie et autres classificateurs)
2. Examen par l'API
Les fichiers d'images sont ensuite envoyés à l'API Content Safety au moyen d'un simple appel d'API. Ils sont soumis à des classificateurs pour déterminer la priorité d'examen, puis la valeur de priorité de chacune des images est renvoyée au partenaire.
API Content Safety
Technologie de classificateur
3. Examen manuel
Les partenaires utilisent la valeur de priorité pour hiérarchiser les images qui doivent faire l'objet d'un examen manuel en priorité.
Partenaire
Examen manuel
4. Prise de mesures
Une fois l'examen manuel des images terminé, le partenaire peut alors prendre des mesures à l'égard du contenu, conformément aux lois et réglementations locales.
Partenaire
Prise de mesures appropriées
CSAI Match
Cas d'utilisation : établissement de correspondances avec des segments vidéo abusifs connus
CSAI Match est la technologie propriétaire que YouTube utilise pour lutter contre les vidéos en ligne qui présentent des IASME (images d'abus sexuels sur des mineurs/enfants). Cette technologie a été la première à mettre à profit la correspondance par hachage pour détecter les contenus vidéo non conformes, et elle nous permet de le faire malgré la grande quantité de contenus conformes parmi lesquels ceux-ci se trouvent. Lorsqu'une correspondance avec un contenu non conforme est trouvée, elle est ensuite signalée aux partenaires, qui se chargeront de l'examiner, de confirmer qu'il s'agit bien d'un contenu non conforme, et de le signaler de manière responsable, conformément aux lois et réglementations locales. YouTube met sa technologie CSAI Match à la disposition de ses partenaires du secteur et des ONG. Nous leur donnons accès à un logiciel d'empreintes digitales et à une API qui les aident à détecter les correspondances avec notre base de données de contenus abusifs connus.
Les plateformes en ligne peuvent empêcher l'affichage et le partage de contenus non conformes sur leurs sites en utilisant la technologie CSAI Match, qui leur permet de comparer leurs contenus avec l'un des plus grands index de contenus connus présentant des IASME. L'intégration de CSAI Match au système des partenaires est facile à réaliser, ce qui simplifie l'adaptation à grande échelle de la gestion des contenus dont le traitement est délicat.
Fonctionnement
1. Création d'empreintes digitales de vidéos
Une vidéo est téléversée sur la plateforme du partenaire. Ensuite, le créateur d'empreinte digitale de CSAI Match, qui est exécuté sur la plateforme du partenaire, crée un fichier d'empreinte digitale pour ce fichier vidéo, c'est-à-dire un identifiant numérique unique qui représente son contenu.
Partenaire
Fichier vidéo
Créateur d'empreinte digitale
Fichier d'empreinte digitale
2. Examen par l'API
Le partenaire envoie le fichier d'empreinte digitale au moyen de l'API CSAI Match pour qu'il soit comparé aux autres fichiers figurant dans le référentiel d'empreintes digitales de YouTube. Ce référentiel contient les empreintes digitales de contenus abusifs connus qui ont été détectés par YouTube et Google.
YouTube
API CSAI Match
Technologie CSAI Match
IASME partagées
Référentiel d'empreintes digitales
3. Examen manuel
Une correspondance positive ou négative est renvoyée au partenaire une fois le processus d'appel à l'API terminé. Celui-ci procède alors à l'examen manuel de la vidéo en fonction des informations sur la correspondance pour vérifier qu'elle contient bien des IASME.
Partenaire
Examen manuel
4. Prise de mesures
Une fois que les images ont été examinées, le partenaire peut prendre des mesures à l'égard du contenu conformément aux lois et réglementations locales.
Partenaire
Prise de mesures appropriées
API Content Safety
Cas d'utilisation : classification d'images n'ayant jamais été analysées
Le classificateur de l'API Content Safety s'appuie sur l'accès programmatique et l'intelligence artificielle pour aider nos partenaires à classifier et à prioriser les milliards d'images à examiner. Plus la priorité attribuée par le classificateur est élevée, plus l'image est susceptible de présenter un contenu abusif, ce qui peut aider les partenaires à hiérarchiser leurs examens par des humains et à déterminer eux-mêmes la nature du contenu. L'API Content Safety formule une recommandation quant à la priorité à accorder au contenu qui lui est envoyé. Les partenaires doivent réaliser leur propre examen afin de déterminer s'ils doivent prendre des mesures à l'égard du contenu.
Sur le plan opérationnel, nous recommandons aux organisations d'utiliser l'API Content Safety juste avant le processus d'examen manuel, ce qui les aidera à classifier et à hiérarchiser les contenus, et à organiser leur file d'attente. L'API Content Safety peut être utilisée en parallèle avec d'autres solutions, comme l'outil de hachage vidéo CSAI Match de YouTube ou la technologie PhotoDNA de Microsoft, qui répondent chacune à des besoins différents.
API Content Safety
Cas d'utilisation : classification d'images n'ayant jamais été analysées
Fonctionnement
Partenaire
Images signalées par les utilisateurs
Robots d'exploration
Filtres préalables
(pornographie et autres classificateurs)
API Content Safety
Technologie de classificateur
Partenaire
Examen manuel
Partenaire
Prise de mesures appropriées
Vous souhaitez utiliser notre trousse?
Donnez quelques détails sur votre organisation pour enregistrer votre demande
Afficher le formulaire d'intérêtCSAI Match
Cas d'utilisation : établissement de correspondances avec des segments vidéo abusifs connus
CSAI Match est la technologie propriétaire que YouTube utilise pour lutter contre les vidéos en ligne qui présentent des IASME (images d'abus sexuels sur des mineurs/enfants). Cette technologie a été la première à mettre à profit la correspondance par hachage pour détecter les contenus vidéo non conformes, et elle nous permet de le faire malgré la grande quantité de contenus conformes parmi lesquels ceux-ci se trouvent. Lorsqu'une correspondance avec un contenu non conforme est trouvée, elle est ensuite signalée aux partenaires, qui se chargeront de l'examiner, de confirmer qu'il s'agit bien d'un contenu non conforme, et de le signaler de manière responsable, conformément aux lois et réglementations locales. YouTube met sa technologie CSAI Match à la disposition de ses partenaires du secteur et des ONG. Nous leur donnons accès à un logiciel d'empreintes digitales et à une API qui les aident à détecter les correspondances avec notre base de données de contenus abusifs connus.
Les plateformes en ligne peuvent empêcher l'affichage et le partage de contenus non conformes sur leurs sites en utilisant la technologie CSAI Match, qui leur permet de comparer leurs contenus avec l'un des plus grands index de contenus connus présentant des IASME. L'intégration de CSAI Match au système des partenaires est facile à réaliser, ce qui simplifie l'adaptation à grande échelle de la gestion des contenus dont le traitement est délicat.
CSAI Match
Cas d'utilisation : établissement de correspondances avec des segments vidéo abusifs connus
Fonctionnement
Partenaire
Fichier vidéo
Créateur d'empreinte digitale
Fichier d'empreinte digitale
YouTube
API CSAI Match
Technologie CSAI Match
IASME partagées
Référentiel d'empreintes digitales
Partenaire
Examen manuel
Partenaire
Prise de mesures appropriées
Vous souhaitez utiliser notre trousse?
Donnez quelques détails sur votre organisation pour enregistrer votre demande
Afficher le formulaire d'intérêtVous souhaitez utiliser notre trousse?
Donnez quelques détails sur votre organisation pour enregistrer votre demande
Afficher le formulaire d'intérêtTémoignages
FAQ
API Content Safety
L'API Content Safety fonctionne-t-elle pour les vidéos?
L'API Content Safety est conçue pour les images, mais grâce à la technologie CSAI Match de YouTube, les organisations peuvent accéder à un logiciel d'empreintes digitales et à une API qui permet d'établir des correspondances avec notre base de données de contenu vidéo abusif connu. Apprenez-en plus.
Qui peut s'inscrire pour accéder à la technologie et à l'API Content Safety?
Les tiers du secteur et de la société civile qui veulent protéger leur plateforme contre les abus peuvent s'inscrire pour accéder à l'API Content Safety. Les demandes doivent être approuvées.
Pourquoi rendez-vous ces outils si largement accessibles?
Nous pensons que la meilleure approche pour lutter contre l'exploitation des enfants dans le contenu en ligne consiste à collaborer avec d'autres entreprises et ONG. Nous œuvrons depuis longtemps au sein de l'industrie ainsi qu'avec diverses ONG en vue de soutenir la création de nouveaux outils basés sur les données, de renforcer les capacités techniques et de sensibiliser le public. Nous considérons que rendre ces outils largement accessibles est un élément essentiel de cette lutte parce qu'ils permettent à nos partenaires d'utiliser l'IA pour mieux examiner le contenu à grande échelle.
CSAI Match
La technologie CSAI Match fonctionne-t-elle pour les images?
La technologie CSAI Match est conçue pour les vidéos, mais grâce à l'API Content Safety de Google, un ensemble d'outils est mis à la disposition des entreprises et des ONG partenaires afin d'offrir une classification des images basée sur l'apprentissage automatique. Apprenez-en plus.
Quels renseignements sont affichés lorsqu'une correspondance est établie?
La correspondance permettra de cerner la partie de la vidéo qui contient des IASME connues et de classifier le type de contenu dans une catégorie normalisée.
Qu'est-ce qui rend la technologie CSAI Match si efficace?
La technologie CSAI Match détecte les segments quasi identiques d'IASME connues. Cela comprend non seulement les doublons intégraux que la correspondance de hachage MD5 révélerait, mais aussi les quasi-doublons qui pourraient être des réencodages, des brouillages, des troncatures ou des mises à l'échelle de vidéos contenant des IASME, même lorsqu'une vidéo ne contient qu'une petite partie d'IASME pouvant avoir été mélangée à du contenu sans IASME. Les partenaires exécutent un programme binaire d'empreinte digitale pour produire une « empreinte digitale » de la vidéo, soit une séquence d'octets similaire à un hachage MD5. Celle-ci est ensuite envoyée au service CSAI Match de Google, qui est spécialement conçu pour assurer une comparaison efficace d'une vidéo avec le corpus de références d'IASME connues de YouTube.