Meilleure hiérarchisation des priorités

Meilleure hiérarchisation des priorités


Les API contribuent à la lutte contre l'exploitation des enfants en ligne en faisant en sorte que le contenu abusif soit examiné en priorité par des humains.

Détection rapide

Détection plus rapide


En détectant la nature du contenu plus rapidement, on augmente la probabilité que les victimes puissent être identifiées et protégées contre de futurs abus.

Opérations plus sûres

Opérations plus sûres


En rendant les files d'attente d'examen plus efficaces et moins encombrées, on allège également le travail parfois difficile des modérateurs de contenu.

En savoir plus sur nos outils

Nos outils présentent des capacités complémentaires. Ils peuvent être utilisés conjointement et avec d'autres solutions pour répondre à différents besoins.

API Content Safety

API Content Safety

Classification d'images et de vidéos n'ayant jamais été vues

CSAI Match

CSAI Match

Établissement de correspondances avec des segments vidéo abusifs connus

API Content Safety

Utilisée pour : la classification d'images et de vidéos n'ayant jamais été vues


Le classificateur de l'API Content Safety s'appuie sur l'accès programmatique et l'intelligence artificielle pour aider nos partenaires à classifier et à prioriser les milliards d'images et de vidéos à examiner. Plus la priorité attribuée par le classificateur est élevée, plus le fichier multimédia est susceptible de présenter un contenu abusif, ce qui peut aider les partenaires à hiérarchiser leurs examens manuels et à déterminer eux-mêmes la nature du contenu. L'API Content Safety formule une recommandation quant à la priorité à accorder au contenu qui lui est envoyé. Les partenaires doivent réaliser leur propre examen afin de déterminer s'ils doivent prendre des mesures à l'égard du contenu.

Sur le plan opérationnel, nous recommandons aux organisations d'utiliser l'API Content Safety juste avant le processus d'examen manuel, ce qui les aidera à classifier et à hiérarchiser les contenus, et à organiser leur file d'attente. L'API Content Safety peut être utilisée en parallèle avec d'autres solutions, comme l'outil de hachage vidéo CSAI Match de YouTube ou la technologie PhotoDNA de Microsoft, qui répondent chacun à des besoins différents.

Fonctionnement

Récupération d'images

1. Récupération de fichiers

Les fichiers sont récupérés par le partenaire sous différentes formes, par exemple les fichiers signalés par un utilisateur, ou détectés par les robots d'exploration ou les filtres que le partenaire a créés pour modérer le contenu sur sa plateforme.

Partenaire

Images et vidéos signalées par des utilisateurs

Robots d'exploration

Filtres préalables

(pornographie et autres classificateurs)

Examen par l'API

2. Examen par l'API

Les fichiers multimédias sont ensuite envoyés à l'API Content Safety au moyen d'un simple appel d'API. Ils sont soumis à des classificateurs pour déterminer la priorité d'examen, puis la valeur de priorité de chacun des contenus est renvoyée au partenaire.

Google

API Content Safety

Technologie de classificateur

Examen manuel

3. Examen manuel

Les partenaires utilisent la valeur de priorité pour hiérarchiser les fichiers qui doivent faire l'objet d'un examen manuel en priorité.

Partenaire

Examen manuel

Prendre des mesures

4. Prise de mesures

Une fois l'examen manuel des images et des vidéos terminé, le partenaire peut alors prendre des mesures à l'égard du contenu, conformément aux lois et réglementations locales.

Partenaire

Prise de mesures appropriées

CSAI Match

Utilisée pour : l'établissement de correspondances avec des segments vidéo abusifs connus


CSAI Match est la technologie propriétaire que YouTube utilise pour lutter contre les vidéos en ligne qui présentent des IASME (images d'abus sexuels sur des mineurs/enfants). Cette technologie a été la première à mettre à profit la correspondance par hachage pour détecter les contenus vidéo non conformes, et elle nous permet de le faire malgré la grande quantité de contenus conformes parmi lesquels ceux-ci se trouvent. Lorsqu'une correspondance avec un contenu non conforme est trouvée, elle est ensuite signalée aux partenaires, qui se chargeront de l'examiner, de confirmer qu'il s'agit bien d'un contenu non conforme et de le signaler de manière responsable, conformément aux lois et réglementations locales. YouTube met sa technologie CSAI Match à la disposition de ses partenaires du secteur et des ONG. Nous leur donnons accès à un logiciel de pistage par empreinte numérique unique et à une API qui les aident à détecter les correspondances avec notre base de données de contenus abusifs connus.

Les plateformes en ligne peuvent empêcher l'affichage et le partage de contenus non conformes sur leurs sites en utilisant la technologie CSAI Match, qui leur permet de comparer leurs contenus avec l'une des plus grandes bases de données de contenus connus présentant des IASME. L'intégration de CSAI Match au système des partenaires est facile à réaliser, ce qui simplifie l'adaptation à grande échelle de la gestion des contenus dont le traitement est délicat.

Fonctionnement

Pistage de vidéo par empreinte numérique unique

1. Pistage de vidéo par empreinte numérique unique

Une vidéo est téléversée sur la plateforme du partenaire. Ensuite, le créateur d'empreinte numérique de CSAI Match, qui est exécuté sur la plateforme du partenaire, crée un fichier d'empreinte numérique pour ce fichier vidéo, c'est-à-dire un identifiant numérique unique qui représente son contenu.

Partenaire

Fichier vidéo

Créateur d'empreintes numériques

Fichier d'empreinte numérique

Examen par l'API

2. Examen par l'API

Le partenaire envoie le fichier d'empreinte numérique au moyen de l'API CSAI Match pour qu'il soit comparé aux autres fichiers figurant dans le référentiel d'empreintes numériques de YouTube. Ce référentiel contient les empreintes numériques de contenus abusifs connus qui ont été détectés par YouTube et Google.

YouTube

API CSAI Match

Technologie CSAI Match

IASME partagées

Référentiel d'empreintes numériques

Examen manuel

3. Examen manuel

Une correspondance positive ou négative est renvoyée au partenaire une fois le processus d'appel à l'API terminé. Celui-ci procède alors à l'examen manuel de la vidéo en fonction des informations sur la correspondance pour vérifier qu'elle contient bien des IASME.

Partenaire

Examen manuel

Prise de mesures

4. Prise de mesures

Une fois que les images ont été examinées, le partenaire peut prendre des mesures à l'égard du contenu conformément aux lois et réglementations locales.

Partenaire

Prise de mesures appropriées

API Content Safety

Utilisée pour : la classification d'images et de vidéos n'ayant jamais été vues

Le classificateur de l'API Content Safety s'appuie sur l'accès programmatique et l'intelligence artificielle pour aider nos partenaires à classifier et à prioriser les milliards d'images et de vidéos à examiner. Plus la priorité attribuée par le classificateur est élevée, plus le fichier multimédia est susceptible de présenter un contenu abusif, ce qui peut aider les partenaires à hiérarchiser leurs examens manuels et à déterminer eux-mêmes la nature du contenu. L'API Content Safety formule une recommandation quant à la priorité à accorder au contenu qui lui est envoyé. Les partenaires doivent réaliser leur propre examen afin de déterminer s'ils doivent prendre des mesures à l'égard du contenu.

Sur le plan opérationnel, nous recommandons aux organisations d'utiliser l'API Content Safety juste avant le processus d'examen manuel, ce qui les aidera à classifier et à hiérarchiser les contenus, et à organiser leur file d'attente. L'API Content Safety peut être utilisée en parallèle avec d'autres solutions, comme l'outil de hachage vidéo CSAI Match de YouTube ou la technologie PhotoDNA de Microsoft, qui répondent chacun à des besoins différents.

CSAI Match

Utilisée pour : l'établissement de correspondances avec des segments vidéo abusifs connus

CSAI Match est la technologie propriétaire que YouTube utilise pour lutter contre les vidéos en ligne qui présentent des IASME (images d'abus sexuels sur des mineurs/enfants). Cette technologie a été la première à mettre à profit la correspondance par hachage pour détecter les contenus vidéo non conformes, et elle nous permet de le faire malgré la grande quantité de contenus conformes parmi lesquels ceux-ci se trouvent. Lorsqu'une correspondance avec un contenu non conforme est trouvée, elle est ensuite signalée aux partenaires, qui se chargeront de l'examiner, de confirmer qu'il s'agit bien d'un contenu non conforme et de le signaler de manière responsable, conformément aux lois et réglementations locales. YouTube met sa technologie CSAI Match à la disposition de ses partenaires du secteur et des ONG. Nous leur donnons accès à un logiciel de pistage par empreinte numérique unique et à une API qui les aident à détecter les correspondances avec notre base de données de contenus abusifs connus.

Les plateformes en ligne peuvent empêcher l'affichage et le partage de contenus non conformes sur leurs sites en utilisant la technologie CSAI Match, qui leur permet de comparer leurs contenus avec l'une des plus grandes bases de données de contenus connus présentant des IASME. L'intégration de CSAI Match au système des partenaires est facile à réaliser, ce qui simplifie l'adaptation à grande échelle de la gestion des contenus dont le traitement est délicat.

Formulaire d'intérêt pour la trousse de protection de la sécurité des enfants

Vous souhaitez utiliser notre trousse?

Donnez quelques détails sur votre organisation pour enregistrer votre demande

Afficher le formulaire d'intérêt

Témoignages

FAQ

API Content Safety

Quel format prennent les données envoyées à l'API Content Safety?

Nous avons des options pour prendre en charge à la fois le contenu brut sous forme d'octets et les intégrations dérivées de fichiers multimédias. Communiquez avec nous pour obtenir plus de détails.

Qui peut s'inscrire pour accéder à la technologie et à l'API Content Safety?

Les tiers d'entreprises et de la société civile qui veulent protéger leur plateforme contre les abus peuvent s'inscrire pour accéder à l'API Content Safety. Les demandes doivent être approuvées.

Pourquoi rendez-vous ces outils si largement accessibles?

Nous pensons que la meilleure approche pour lutter contre l'exploitation des enfants dans le contenu en ligne consiste à collaborer avec d'autres entreprises et ONG. Nous œuvrons depuis longtemps au sein de l'industrie ainsi qu'avec diverses ONG en vue de soutenir la création de nouveaux outils basés sur les données, de renforcer les capacités techniques et de sensibiliser le public. Nous considérons que rendre ces outils largement accessibles est un élément essentiel de cette lutte parce qu'ils permettent à nos partenaires d'utiliser l'IA pour mieux examiner le contenu à grande échelle.

CSAI Match

La technologie CSAI Match fonctionne-t-elle pour les images?

La technologie CSAI Match est conçue pour les vidéos, mais grâce à l'API Content Safety de Google, un ensemble d'outils est mis à la disposition des entreprises et des ONG partenaires afin d'offrir une classification des images basée sur l'apprentissage automatique. Apprenez-en plus.

Quels renseignements sont affichés lorsqu'une correspondance est établie?

La correspondance permettra de cerner la partie de la vidéo qui contient des IASME connues et de classifier le type de contenu dans une catégorie normalisée.

Qu'est-ce qui rend la technologie CSAI Match si efficace?

La technologie CSAI Match détecte les segments quasi identiques d'IASME connues. Cela comprend non seulement les doublons intégraux que la correspondance de hachage MD5 révélerait, mais aussi les quasi-doublons qui pourraient être des réencodages, des brouillages, des troncatures ou des mises à l'échelle de vidéos contenant des IASME, même lorsqu'une vidéo ne contient qu'une petite partie d'IASME pouvant avoir été mélangée à du contenu sans IASME. Les partenaires exécutent un programme binaire de pistage par empreinte numérique unique pour produire une « empreinte numérique » de la vidéo, soit une séquence d'octets similaire à un hachage MD5. Celle-ci est ensuite envoyée au service CSAI Match de Google, qui est spécialement conçu pour assurer une comparaison efficace d'une vidéo avec le corpus de références d'IASME connues de YouTube.