Hiérarchisation optimisée

Hiérarchisation optimisée


Les API aident à lutter contre l'exploitation des enfants en ligne en hiérarchisant les contenus abusifs qui nécessitent un examen manuel.

Identification rapide

Identification accélérée


La détection plus rapide des contenus augmente les chances d'identifier les victimes et de les protéger contre de nouveaux abus.

Examen moins pénible

Examen moins pénible


Des files d'attente d'examen plus efficaces et moins difficiles à traiter allègent la charge des modérateurs de contenu.

Nos outils

Nos outils sont complémentaires. Vous pouvez les utiliser ensemble et avec d'autres solutions, en fonction de vos besoins.

API Content Safety

API Content Safety

Classer les images non répertoriées

CSAI Match

CSAI Match

Mettre en correspondance les séquences vidéo abusives identifiées

API Content Safety

Utilisation : Classer les images non répertoriées


Le classificateur de l'API Content Safety utilise un accès automatisé et l'intelligence artificielle pour aider nos partenaires à classer par ordre de priorité plusieurs milliards d'images à examiner. Plus la priorité est élevée, plus il y a de chance que l'image représente du contenu abusif. Grâce au classificateur, les partenaires peuvent hiérarchiser les contenus à examiner manuellement et procéder à leur propre évaluation. L'API Content Safety recommande un ordre de priorité pour les contenus qui lui sont envoyés, après quoi les partenaires réalisent leur propre examen pour savoir s'ils doivent prendre des mesures concernant ces contenus.

Au niveau opérationnel, nous recommandons aux organisations d'utiliser l'API Content Safety juste avant le processus d'examen manuel pour classer par ordre de priorité les contenus dans la file d'attente et mieux s'organiser. L'API peut être utilisée en parallèle d'autres solutions qui répondent à des besoins différents, telles que l'outil de hachage de vidéos CSAI Match de YouTube ou PhotoDNA de Microsoft.

Fonctionnement

Récupération des images

1. Récupération des images

Le partenaire récupère les images que les utilisateurs signalent, qui ont été identifiées par des robots d'exploration ou des filtres propriétaires de modération sur sa plate-forme, ou via d'autres canaux.

Partenaire

Images signalées par les utilisateurs

Robots d'exploration

Préfiltres

(classificateurs d'images pornographiques et autres)

Examen via l'API

2. Examen via l'API

Les fichiers image sont envoyés à l'API Content Safety via un simple appel. Les classificateurs définissent un ordre de priorité pour chaque image à examiner, puis cette valeur est renvoyée au partenaire.

Google

API Content Safety

Technologie de classificateurs

Examen manuel

3. Examen manuel

Le partenaire se base sur cette valeur pour déterminer quelles images doivent être examinées en premier.

Partenaire

Examen manuel

Intervention

4. Intervention

Une fois l'examen manuel terminé, le partenaire peut prendre les mesures nécessaires concernant les contenus conformément aux lois et réglementations locales.

Partenaire

Mesures

CSAI Match

Utilisation : Mettre en correspondance les séquences vidéo abusives identifiées


La technologie propriétaire CSAI Match de YouTube permet de lutter contre les images d'abus sexuels sur des enfants dans les vidéos en ligne. Il s'agit de la première technologie à utiliser les correspondances de hachage pour identifier les contenus non conformes déjà connus, ce qui nous permet de détecter ce type de contenu au sein d'un grand nombre de vidéos conformes. Lorsqu'une correspondance est trouvée, le contenu non conforme est signalé à nos partenaires qui peuvent alors effectuer les examens, confirmations et signalements nécessaires conformément aux lois et réglementations locales. La technologie CSAI Match de YouTube est mise à la disposition des partenaires du secteur et des ONG par le biais d'un logiciel d'empreinte numérique et d'une API permettant d'identifier les correspondances dans notre base de données de contenus abusifs déjà connus.

Avec CSAI Match, les plates-formes peuvent utiliser l'un des corpus d'images les plus complets recensant des abus sexuels sur des enfants, afin de détecter d'éventuelles correspondances avec leurs contenus et ainsi empêcher l'affichage et le partage de contenus non conformes sur leurs sites. Facile à intégrer aux systèmes des partenaires, la technologie CSAI Match améliore la capacité de gestion des contenus problématiques.

Fonctionnement

Fingerprinting des vidéos

1. Fingerprinting des vidéos

Une vidéo est mise en ligne sur la plate-forme du partenaire. Le logiciel d'empreinte numérique de CSAI Match exécuté sur la plate-forme associe un identifiant numérique unique au contenu de la vidéo en générant un fichier d'empreinte.

Partenaire

Fichier vidéo

Logiciel d'empreinte numérique

Fichier d'empreinte numérique

Examen via l'API

2. Examen via l'API

Le partenaire envoie le fichier d'empreinte numérique via l'API CSAI Match afin de le comparer au référentiel d'empreintes de YouTube, qui contient les empreintes de tous les contenus abusifs déjà détectés par YouTube et Google.

YouTube

API CSAI Match

Technologie CSAI Match

des images d'abus sexuels sur des enfants

Référentiel commun d'empreintes

Examen manuel

3. Examen manuel

Une fois l'appel d'API terminé, un résultat positif ou négatif est renvoyé au partenaire. En fonction des informations de correspondance, le partenaire examine manuellement la vidéo pour confirmer qu'elle contient bien des images d'abus sexuels sur des enfants.

Partenaire

Examen manuel

Intervention

4. Intervention

Une fois les images examinées, le partenaire peut prendre les mesures nécessaires concernant les contenus conformément aux lois et réglementations locales.

Partenaire

Mesures

API Content Safety

Utilisation : Classer les images non répertoriées

Le classificateur de l'API Content Safety utilise un accès automatisé et l'intelligence artificielle pour aider nos partenaires à classer par ordre de priorité plusieurs milliards d'images à examiner. Plus la priorité est élevée, plus il y a de chance que l'image représente du contenu abusif. Grâce au classificateur, les partenaires peuvent hiérarchiser les contenus à examiner manuellement et procéder à leur propre évaluation. L'API Content Safety recommande un ordre de priorité pour les contenus qui lui sont envoyés, après quoi les partenaires réalisent leur propre examen pour savoir s'ils doivent prendre des mesures concernant ces contenus.

Au niveau opérationnel, nous recommandons aux organisations d'utiliser l'API Content Safety juste avant le processus d'examen manuel pour classer par ordre de priorité les contenus dans la file d'attente et mieux s'organiser. L'API peut être utilisée en parallèle d'autres solutions qui répondent à des besoins différents, telles que l'outil de hachage de vidéos CSAI Match de YouTube ou PhotoDNA de Microsoft.

CSAI Match

Utilisation : Mettre en correspondance les séquences vidéo abusives identifiées

La technologie propriétaire CSAI Match de YouTube permet de lutter contre les images d'abus sexuels sur des enfants dans les vidéos en ligne. Il s'agit de la première technologie à utiliser les correspondances de hachage pour identifier les contenus non conformes déjà connus, ce qui nous permet de détecter ce type de contenu au sein d'un grand nombre de vidéos conformes. Lorsqu'une correspondance est trouvée, le contenu non conforme est signalé à nos partenaires qui peuvent alors effectuer les examens, confirmations et signalements nécessaires conformément aux lois et réglementations locales. La technologie CSAI Match de YouTube est mise à la disposition des partenaires du secteur et des ONG par le biais d'un logiciel d'empreinte numérique et d'une API permettant d'identifier les correspondances dans notre base de données de contenus abusifs déjà connus.

Avec CSAI Match, les plates-formes peuvent utiliser l'un des corpus d'images les plus complets recensant des abus sexuels sur des enfants, afin de détecter d'éventuelles correspondances avec leurs contenus et ainsi empêcher l'affichage et le partage de contenus non conformes sur leurs sites. Facile à intégrer aux systèmes des partenaires, la technologie CSAI Match améliore la capacité de gestion des contenus problématiques.

Formulaire de demande du kit pour la sécurité des enfants

Notre kit vous intéresse ?

Fournissez des informations sur votre organisation pour indiquer que vous êtes intéressé.

Accéder au formulaire de demande

Témoignages

Questions fréquentes

API Content Safety

L'API Content Safety fonctionne-t-elle avec les vidéos ?

L'API Content Safety est destinée aux images, mais l'outil CSAI Match de YouTube permet aux organisations d'accéder à un logiciel d'empreinte numérique et à une API afin d'identifier d'éventuelles correspondances avec les contenus vidéo abusifs déjà connus de notre base de données. En savoir plus

Qui peut s'inscrire pour accéder à la technologie et à l'API Content Safety ?

Les entreprises et les acteurs de la société civile qui cherchent à protéger leur plate-forme contre les abus peuvent s'inscrire pour accéder à l'API Content Safety. Les demandes sont soumises à approbation.

Pourquoi mettez-vous ces outils à la disposition d'un si grand nombre de personnes ?

Nous pensons que la meilleure façon de lutter contre l'exploitation des enfants en ligne consiste à collaborer avec d'autres entreprises et des ONG. Nous travaillons depuis longtemps avec de tels partenaires afin de favoriser le développement de nouveaux outils basés sur les données, de renforcer les capacités techniques et de sensibiliser le public. Partager ces outils avec le plus grand nombre, et permettre ainsi à nos partenaires d'utiliser l'intelligence artificielle pour optimiser l'examen des contenus à grande échelle, constitue un élément essentiel de cette lutte.

CSAI Match

L'outil CSAI Match fonctionne-t-il avec les images ?

CSAI Match est destiné aux vidéos, mais l'API Content Safety de Google met à la disposition des ONG et des partenaires du secteur un ensemble d'outils de classification des images basés sur le machine learning. En savoir plus

Quelles informations sont renvoyées en cas de correspondance ?

Le résultat indique la séquence vidéo contenant des images connues d'abus sexuels sur des enfants ainsi que le type de contenu mis en correspondance (selon un classement standardisé).

Pourquoi la technologie CSAI Match est-elle si efficace ?

CSAI Match détecte les séquences quasi identiques qui contiennent des images connues d'abus sexuels sur des enfants. Cette API fonctionne sur les images strictement identiques correspondant à des hachages MD5, mais aussi sur les images quasi identiques générées à l'aide de techniques de réencodage, d'obscurcissement, de troncation ou de mise à l'échelle, même si seule une faible portion d'images d'abus sexuels sur des enfants est mélangée avec du contenu conforme. À l'aide d'un binaire de fingerprinting, les partenaires génèrent une "empreinte numérique" de la vidéo, une séquence d'octets semblable à un hachage MD5. Cette séquence est ensuite envoyée au service CSAI Match de Google, qui a été spécialement conçu pour analyser les vidéos par rapport au corpus d'images d'abus sexuels sur des enfants déjà identifiées par YouTube.