Hiérarchisation optimisée
Les API aident à lutter contre l'exploitation des enfants en ligne en hiérarchisant les contenus abusifs qui nécessitent un examen manuel.
Identification accélérée
La détection plus rapide des contenus augmente les chances d'identifier les victimes et de les protéger contre de nouveaux abus.
Examen moins pénible
Des files d'attente d'examen plus efficaces et moins difficiles à traiter allègent la charge des modérateurs de contenu.
Découvrez nos outils
Nos outils sont complémentaires. Vous pouvez les utiliser ensemble et avec d'autres solutions, en fonction de vos besoins.
API Content Safety
Classer les images et vidéos non répertoriées
CSAI Match
Mettre en correspondance les séquences vidéo abusives identifiées
API Content Safety
Utilisation : Classer les images et vidéos non répertoriées
Le classificateur de l'API Content Safety utilise un accès programmatique et l'intelligence artificielle pour aider nos partenaires à classer par ordre de priorité plusieurs milliards d'images et de vidéos à examiner. Plus la priorité est élevée, plus il y a de chance que le fichier multimédia représente du contenu abusif. Grâce au classificateur, les partenaires peuvent hiérarchiser les contenus à examiner manuellement et procéder à leur propre évaluation. L'API Content Safety recommande un ordre de priorité pour les contenus qui lui sont envoyés, après quoi les partenaires réalisent leur propre examen pour savoir s'ils doivent prendre des mesures concernant ces contenus.
Au niveau opérationnel, nous recommandons aux organisations d'utiliser l'API Content Safety juste avant le processus d'examen manuel pour classer par ordre de priorité les contenus dans la file d'attente et mieux s'organiser. L'API peut être utilisée en parallèle d'autres solutions qui répondent à des besoins différents, telles que l'outil de hachage de vidéos CSAI Match de YouTube ou PhotoDNA de Microsoft.
Fonctionnement
1. Récupération de fichiers
Le partenaire récupère les fichiers que les utilisateurs signalent, qui ont été identifiés par des robots d'exploration ou des filtres propriétaires de modération sur sa plate-forme, ou via d'autres canaux.
Partenaire
Images ou vidéos signalées par les utilisateurs
Robots d'exploration
Préfiltres
(classificateurs d'images pornographiques et autres)
2. Examen via l'API
Les fichiers multimédias sont envoyés à l'API Content Safety via un simple appel. Les classificateurs définissent un ordre de priorité pour chaque contenu à examiner, puis cette valeur est renvoyée au partenaire.
API Content Safety
Technologie de classificateurs
3. Examen manuel
Le partenaire se base sur cette valeur pour déterminer quels fichiers doivent être examinés en premier.
Partenaire
Examen manuel
4. Action
Une fois l'examen manuel des fichiers image et vidéo terminé, le partenaire peut prendre les mesures nécessaires concernant les contenus conformément aux lois et réglementations locales.
Partenaire
Mesures
CSAI Match
Utilisation : Mettre en correspondance les séquences vidéo abusives identifiées
La technologie propriétaire CSAI Match de YouTube permet de lutter contre les images d'abus sexuels sur mineurs dans les vidéos en ligne. Il s'agit de la première technologie à utiliser les correspondances de hachage pour identifier les contenus non conformes déjà connus, ce qui nous permet de détecter ce type de contenu au sein d'un grand nombre de vidéos conformes. Lorsqu'une correspondance est trouvée, le contenu non conforme est signalé à nos partenaires qui peuvent alors effectuer les examens, confirmations et signalements nécessaires conformément aux lois et réglementations locales. La technologie CSAI Match de YouTube est mise à la disposition des partenaires du secteur et des ONG par le biais d'un logiciel d'empreinte numérique (fingerprinting) et d'une API permettant d'identifier les correspondances dans notre base de données de contenus abusifs déjà connus.
Avec CSAI Match, les plates-formes peuvent utiliser l'un des corpus d'images les plus complets recensant des abus sexuels sur mineurs, afin de détecter d'éventuelles correspondances avec leurs contenus et ainsi empêcher l'affichage et le partage de contenus non conformes sur leurs sites. Facile à intégrer aux systèmes des partenaires, la technologie CSAI Match améliore la capacité de gestion des contenus problématiques.
Fonctionnement
1. Fingerprinting des vidéos
Une vidéo est mise en ligne sur la plate-forme du partenaire. Le logiciel d'empreinte numérique de CSAI Match exécuté sur la plate-forme associe un identifiant numérique unique au contenu de la vidéo en générant un fichier d'empreinte.
Partenaire
Fichier vidéo
Logiciel d'empreinte numérique
Fichier d'empreinte numérique
2. Examen via l'API
Le partenaire envoie le fichier d'empreinte numérique via l'API CSAI Match afin de le comparer au référentiel d'empreintes de YouTube, qui contient les empreintes de tous les contenus abusifs déjà détectés par YouTube et Google.
YouTube
API CSAI Match
Technologie CSAI Match
Référentiel d'empreintes commun
des images d'abus sexuels sur des enfants
3. Examen manuel
Une fois l'appel d'API terminé, un résultat positif ou négatif est renvoyé au partenaire. En fonction des informations de correspondance, le partenaire examine manuellement la vidéo pour confirmer qu'elle contient bien des images d'abus sexuels sur mineurs.
Partenaire
Examen manuel
4. Action
Une fois les images examinées, le partenaire peut prendre les mesures nécessaires concernant les contenus conformément aux lois et réglementations locales.
Partenaire
Mesures
API Content Safety
Utilisation : Classer les images et vidéos non répertoriées
Le classificateur de l'API Content Safety utilise un accès programmatique et l'intelligence artificielle pour aider nos partenaires à classer par ordre de priorité plusieurs milliards d'images et de vidéos à examiner. Plus la priorité est élevée, plus il y a de chance que le fichier multimédia représente du contenu abusif. Grâce au classificateur, les partenaires peuvent hiérarchiser les contenus à examiner manuellement et procéder à leur propre évaluation. L'API Content Safety recommande un ordre de priorité pour les contenus qui lui sont envoyés, après quoi les partenaires réalisent leur propre examen pour savoir s'ils doivent prendre des mesures concernant ces contenus.
Au niveau opérationnel, nous recommandons aux organisations d'utiliser l'API Content Safety juste avant le processus d'examen manuel pour classer par ordre de priorité les contenus dans la file d'attente et mieux s'organiser. L'API peut être utilisée en parallèle d'autres solutions qui répondent à des besoins différents, telles que l'outil de hachage de vidéos CSAI Match de YouTube ou PhotoDNA de Microsoft.
API Content Safety
Utilisation : Classer les images et vidéos non répertoriées
Fonctionnement
Partenaire
Images ou vidéos signalées par les utilisateurs
Robots d'exploration
Préfiltres
(classificateurs d'images pornographiques et autres)
API Content Safety
Technologie de classificateurs
Partenaire
Examen manuel
Partenaire
Mesures
Notre kit vous intéresse ?
Fournissez des informations sur votre organisation pour accompagner votre demande
Accéder au formulaire de demandeCSAI Match
Utilisation : Mettre en correspondance les séquences vidéo abusives identifiées
La technologie propriétaire CSAI Match de YouTube permet de lutter contre les images d'abus sexuels sur mineurs dans les vidéos en ligne. Il s'agit de la première technologie à utiliser les correspondances de hachage pour identifier les contenus non conformes déjà connus, ce qui nous permet de détecter ce type de contenu au sein d'un grand nombre de vidéos conformes. Lorsqu'une correspondance est trouvée, le contenu non conforme est signalé à nos partenaires qui peuvent alors effectuer les examens, confirmations et signalements nécessaires conformément aux lois et réglementations locales. La technologie CSAI Match de YouTube est mise à la disposition des partenaires du secteur et des ONG par le biais d'un logiciel d'empreinte numérique (fingerprinting) et d'une API permettant d'identifier les correspondances dans notre base de données de contenus abusifs déjà connus.
Avec CSAI Match, les plates-formes peuvent utiliser l'un des corpus d'images les plus complets recensant des abus sexuels sur mineurs, afin de détecter d'éventuelles correspondances avec leurs contenus et ainsi empêcher l'affichage et le partage de contenus non conformes sur leurs sites. Facile à intégrer aux systèmes des partenaires, la technologie CSAI Match améliore la capacité de gestion des contenus problématiques.
CSAI Match
Utilisation : Mettre en correspondance les séquences vidéo abusives identifiées
Fonctionnement
Partenaire
Fichier vidéo
Logiciel d'empreinte numérique
Fichier d'empreinte numérique
YouTube
API CSAI Match
Technologie CSAI Match
Référentiel d'empreintes commun
des images d'abus sexuels sur des enfants
Partenaire
Examen manuel
Partenaire
Mesures
Notre kit vous intéresse ?
Fournissez des informations sur votre organisation pour accompagner votre demande
Accéder au formulaire de demandeNotre kit vous intéresse ?
Fournissez des informations sur votre organisation pour accompagner votre demande
Accéder au formulaire de demandeTémoignages
Questions fréquentes
API Content Safety
Quel est le format des données envoyées à l'API Content Safety ?
Nous pouvons prendre en charge des octets de contenus bruts et des éléments intégrés dérivés de fichiers multimédias. Contactez-nous pour en savoir plus.
Qui peut s'inscrire pour accéder à la technologie et à l'API Content Safety ?
Les entreprises et les acteurs de la société civile qui cherchent à protéger leur plate-forme contre les abus peuvent s'inscrire pour accéder à l'API Content Safety. Les demandes sont soumises à approbation.
Pourquoi mettez-vous ces outils à la disposition d'un si grand nombre de personnes ?
Nous pensons que la meilleure façon de lutter contre l'exploitation d'enfants en ligne consiste à collaborer avec d'autres entreprises et des ONG. Nous travaillons depuis longtemps avec ces partenaires afin de favoriser le développement de nouveaux outils basés sur les données, de renforcer les capacités techniques et de sensibiliser le public. Partager ces outils avec le plus grand nombre, et permettre ainsi à nos partenaires d'utiliser l'intelligence artificielle pour optimiser l'examen des contenus à grande échelle, constitue un élément essentiel de cette lutte.
CSAI Match
L'outil CSAI Match fonctionne-t-il avec les images ?
CSAI Match est destiné aux vidéos, mais l'API Content Safety de Google met à la disposition des ONG et des partenaires du secteur un ensemble d'outils de classification des images basés sur le machine learning. En savoir plus
Quelles informations sont renvoyées en cas de correspondance ?
Le résultat indique la séquence vidéo contenant des images connues d'abus sexuels sur mineurs ainsi que le type de contenu mis en correspondance (selon un classement standardisé).
Pourquoi la technologie CSAI Match est-elle si efficace ?
CSAI Match détecte les séquences quasi identiques qui contiennent des images connues d'abus sexuels sur mineurs. Cette API fonctionne sur les images strictement identiques correspondant à des hachages MD5, mais aussi sur les images quasi identiques générées à l'aide de techniques de réencodage, d'obscurcissement, de troncation ou de mise à l'échelle, même si seule une faible portion d'images d'abus sexuels sur mineurs est mélangée avec du contenu conforme. À l'aide d'un binaire de fingerprinting, les partenaires génèrent une "empreinte numérique" de la vidéo, une séquence d'octets semblable à un hachage MD5. Cette séquence est ensuite envoyée au service CSAI Match de Google, qui a été spécialement conçu pour analyser les vidéos par rapport au corpus d'images d'abus sexuels sur mineurs déjà identifiées par YouTube.