Bessere Priorisierung

Bessere Priorisierung


Die APIs unterstützen die Bekämpfung der Ausbeutung von Kindern im Internet. Dazu werden missbräuchliche Inhalte für die manuelle Überprüfung priorisiert.

Schnelle Identifikation

Schnellere Identifikation


Durch die schnellere Identifikation von Inhalten steigt die Wahrscheinlichkeit, dass Opfer identifiziert und vor weiterem Missbrauch geschützt werden können.

Mehr Sicherheit für Abläufe

Mehr Sicherheit für Abläufe


Ein effizienterer Überprüfungsprozess entlastet auch die Inhaltsmoderatoren.

Informationen zu unseren Tools

Die Funktionen unserer Tools ergänzen sich gegenseitig. Sie können gemeinsam und mit anderen Lösungen verwendet werden, um verschiedene Anforderungen zu erfüllen.

Content Safety API

Content Safety API

Klassifizierung bisher unbekannter Bilder

CSAI Match

CSAI Match

Abgleich mit bekannten missbräuchlichen Videoinhalten

Content Safety API

Verwendungszweck: Klassifizierung bisher unbekannter Bilder


Beim Content Safety API-Klassifikator werden unsere Partner durch programmatischen Zugriff und künstliche Intelligenz dabei unterstützt, Milliarden von Bildern zu klassifizieren und zu priorisieren. Je höher die vom Klassifikator festgelegte Priorität ist, desto wahrscheinlicher ist es, dass das Bild missbräuchliche Inhalte aufweist. Hierdurch können Partner die manuelle Überprüfung besser priorisieren und im Hinblick auf die Inhalte leichter zu einer Entscheidung kommen. Die Content Safety API gibt eine Priorisierungsempfehlung für die Inhalte aus, die an sie gesendet werden. Partner müssen durch eine eigene Überprüfung ermitteln, ob sie für die Inhalte Maßnahmen ergreifen müssen.

Wir empfehlen Organisationen, die Content Safety API direkt vor der manuellen Überprüfung einzusetzen, um die Elemente in der Warteschlange besser klassifizieren, priorisieren und strukturieren zu können. Die Content Safety API kann parallel zu anderen Lösungen eingesetzt werden – sei es das Video-Hashing-Tool CSAI Match von YouTube oder PhotoDNA von Microsoft. Sie alle erfüllen jeweils unterschiedliche Zwecke.

Funktionsweise

Bildabruf

1. Bildabruf

Bilder werden vom Partner auf verschiedene Arten abgerufen. Dabei handelt es sich beispielsweise um Bilder, die von einem Nutzer gemeldet oder von Crawlern bzw. Filtern identifiziert wurden, die der Partner erstellt hat, um Bilder auf seiner Plattform zu moderieren.

Partner

Von Nutzern gemeldete Bilder

Crawler

Vorfilter

(Klassifikatoren für pornografische/andere Inhalte)

API-Überprüfung

2. API-Überprüfung

Die Bilddateien werden dann über einen einfachen API-Aufruf an die Content Safety API gesendet. Sie durchlaufen Klassifikatoren, mit deren Hilfe die Überprüfungspriorität ermittelt wird. Anschließend wird der Prioritätswert für jedes der Bilder an den Partner zurückgesendet.

Google

Content Safety API

Klassifikatortechnologie

Manuelle Überprüfung

3. Manuelle Überprüfung

Anhand des Prioritätswerts können die Bilder, bei denen vorrangiger Handlungsbedarf besteht, direkt manuell geprüft werden.

Partner

Manuelle Überprüfung

Ergreifung von Maßnahmen

4. Ergreifung von Maßnahmen

Nach der manuellen Überprüfung der Bilder kann der Partner gemäß den lokalen Gesetzen und Bestimmungen geeignete Maßnahmen für die Inhalte ergreifen.

Partner

Entsprechende Maßnahme

CSAI Match

Verwendungszweck: Abgleich mit bekannten missbräuchlichen Videoinhalten


CSAI Match ist eine YouTube-Technologie zur Bekämpfung von Videos im Internet, die Darstellungen des sexuellen Missbrauchs von Kindern enthalten. Dabei wurde erstmals die Hash-Technologie eingesetzt, um bereits bekannte Inhalte zu kennzeichnen. Dadurch können wir diese Darstellungen sofort erkennen, wenn sie nochmals auftauchen. Aufgrund der großen Zahl an Videos, die keine Verstöße enthalten, ist es ohne diese Technik extrem schwer, illegale Videos aufzuspüren. Wenn nicht richtlinienkonforme Inhalte gefunden werden, werden diese unseren Partnern gemeldet, die sie überprüfen und gemäß den lokalen Gesetzen und Bestimmungen damit verfahren. YouTube stellt Branchenpartnern und Nichtregierungsorganisationen CSAI Match zur Verfügung. Wir bieten Zugriff auf die Fingerprinting-Software und eine API, anhand derer sich Übereinstimmungen mit unserer Datenbank bekannter missbräuchlicher Inhalte ermitteln lassen.

Mithilfe von CSAI Match können Onlineplattformen ihre Inhalte mit einem der größten Indexe bekannter Darstellungen des sexuellen Missbrauchs von Kindern vergleichen und so verhindern, dass unzulässige Inhalte auf ihren Websites angezeigt und geteilt werden. Partner können CSAI Match problemlos in ihre Systeme integrieren, um problematischen Inhalten besser Einhalt gebieten zu können.

Funktionsweise

Fingerabdruckerstellung (Fingerprinting) für Videos

1. Fingerabdruckerstellung (Fingerprinting) für Videos

Ein Video wird auf die Plattform des Partners hochgeladen. Der CSAI Match-Fingerprinter, der auf der Plattform des Partners ausgeführt wird, erstellt eine Fingerabdruckdatei des Videos, also eine digitale ID, die den Inhalt der Videodatei eindeutig darstellt.

Partner

Videodatei

Fingerprinter

Fingerabdruckdatei

API-Überprüfung

2. API-Überprüfung

Der Partner sendet die Fingerabdruck-Datei über die CSAI Match API, damit sie mit den anderen Dateien im Fingerabdruck-Repository von YouTube verglichen wird. Das Repository enthält Fingerabdrücke von bekannten missbräuchlichen Inhalten, die von YouTube und Google erkannt wurden.

YouTube

CSAI Match API

CSAI Match-Technologie

Darstellungen des sexuellen Missbrauchs von Kindern

– gemeinsames Fingerabdruck-Repository

Manuelle Überprüfung

3. Manuelle Überprüfung

Sobald der Aufruf an die API abgeschlossen ist, wird dem Partner eine positive oder negative Übereinstimmung gemeldet. Anhand der Informationen zur Übereinstimmung überprüft der Partner das Video manuell, um zu bestätigen, dass es sich um Darstellungen des sexuellen Missbrauchs von Kindern handelt.

Partner

Manuelle Überprüfung

Ergreifung von Maßnahmen

4. Ergreifung von Maßnahmen

Nach der Überprüfung der Bilder kann der Partner entsprechende Maßnahmen im Einklang mit den lokalen Gesetzen und Bestimmungen ergreifen.

Partner

Entsprechende Maßnahme

Content Safety API

Verwendungszweck: Klassifizierung bisher unbekannter Bilder

Beim Content Safety API-Klassifikator werden unsere Partner durch programmatischen Zugriff und künstliche Intelligenz dabei unterstützt, Milliarden von Bildern zu klassifizieren und zu priorisieren. Je höher die vom Klassifikator festgelegte Priorität ist, desto wahrscheinlicher ist es, dass das Bild missbräuchliche Inhalte aufweist. Hierdurch können Partner die manuelle Überprüfung besser priorisieren und im Hinblick auf die Inhalte leichter zu einer Entscheidung kommen. Die Content Safety API gibt eine Priorisierungsempfehlung für die Inhalte aus, die an sie gesendet werden. Partner müssen durch eine eigene Überprüfung ermitteln, ob sie für die Inhalte Maßnahmen ergreifen müssen.

Wir empfehlen Organisationen, die Content Safety API direkt vor der manuellen Überprüfung einzusetzen, um die Elemente in der Warteschlange besser klassifizieren, priorisieren und strukturieren zu können. Die Content Safety API kann parallel zu anderen Lösungen eingesetzt werden – sei es das Video-Hashing-Tool CSAI Match von YouTube oder PhotoDNA von Microsoft. Sie alle erfüllen jeweils unterschiedliche Zwecke.

CSAI Match

Verwendungszweck: Abgleich mit bekannten missbräuchlichen Videoinhalten

CSAI Match ist eine YouTube-Technologie zur Bekämpfung von Videos im Internet, die Darstellungen des sexuellen Missbrauchs von Kindern enthalten. Dabei wurde erstmals die Hash-Technologie eingesetzt, um bereits bekannte Inhalte zu kennzeichnen. Dadurch können wir diese Darstellungen sofort erkennen, wenn sie nochmals auftauchen. Aufgrund der großen Zahl an Videos, die keine Verstöße enthalten, ist es ohne diese Technik extrem schwer, illegale Videos aufzuspüren. Wenn nicht richtlinienkonforme Inhalte gefunden werden, werden diese unseren Partnern gemeldet, die sie überprüfen und gemäß den lokalen Gesetzen und Bestimmungen damit verfahren. YouTube stellt Branchenpartnern und Nichtregierungsorganisationen CSAI Match zur Verfügung. Wir bieten Zugriff auf die Fingerprinting-Software und eine API, anhand derer sich Übereinstimmungen mit unserer Datenbank bekannter missbräuchlicher Inhalte ermitteln lassen.

Mithilfe von CSAI Match können Onlineplattformen ihre Inhalte mit einem der größten Indexe bekannter Darstellungen des sexuellen Missbrauchs von Kindern vergleichen und so verhindern, dass unzulässige Inhalte auf ihren Websites angezeigt und geteilt werden. Partner können CSAI Match problemlos in ihre Systeme integrieren, um problematischen Inhalten besser Einhalt gebieten zu können.

Antragsformular für das Toolkit zum Schutz von Kindern

Sie möchten unser Toolkit nutzen?

Geben Sie einige Details zu Ihrer Organisation an, um sich als Interessent zu registrieren.

Antragsformular anzeigen

Erfahrungsberichte

FAQs

Content Safety API

Funktioniert die Content Safety API bei Videos?

Die Content Safety API wurde für Bilder entwickelt. Mit CSAI Match von YouTube können Organisationen aber auf eine Fingerprinting-Software und eine API zugreifen, über die sie Videos mit unserer Datenbank bekannter Videoinhalte abgleichen können. Weitere Informationen

Wer kann sich für die Nutzung der Technologie und der Content Safety API anmelden?

Unternehmen und zivilgesellschaftliche Interessenten, die Missbrauch auf ihren Plattformen bekämpfen und verhindern möchten, können sich für die Content Safety API anmelden. Die Anfragen werden dann von uns geprüft.

Warum stellt Google diese Tools so umfassend zur Verfügung?

Am wirkungsvollsten können wir die Ausbeutung von Kindern im Internet bekämpfen, wenn wir uns mit anderen Unternehmen und mit Nichtregierungsorganisationen zusammenschließen. Darum arbeiten wir mit unseren Partnern schon seit Langem gemeinsam daran, neue datengestützte Tools zu entwickeln, die technischen Möglichkeiten insgesamt zu erweitern und ein generelles Bewusstsein für die Existenz von Darstellungen des sexuellen Missbrauchs von Kindern zu schaffen. Wir haben diese Tools vielen unserer Partner zugänglich gemacht, damit sie Inhalte besser in großem Maßstab überprüfen können. Damit leisten wir nach unserer Überzeugung einen wichtigen Beitrag im Kampf gegen die Ausbeutung von Kindern.

CSAI Match

Funktioniert CSAI Match bei Bildern?

CSAI Match wurde für Videos entwickelt. Die Content Safety API von Google bietet unseren Partnern bei Nichtregierungsorganisationen und in der Branche aber eine Reihe von Tools, durch die man Bilder mithilfe von maschinellem Lernen klassifizieren kann. Weitere Informationen

Welche Informationen werden im Falle einer Übereinstimmung zurückgegeben?

Bei einem Treffer wird angegeben, welcher Teil des Videos mit bekannten Darstellungen des sexuellen Missbrauchs von Kindern übereinstimmt. Außerdem findet eine standardisierte Kategorisierung der Art der abgeglichenen Inhalte statt.

Weshalb ist die CSAI Match-Technologie so effizient?

CSAI Match erkennt fast identische Segmente von bekannten Inhalten mit Darstellungen des sexuellen Missbrauchs von Kindern. Hierzu zählen vollständige Duplikate, die beim Abgleich von MD5-Hashes ermittelt wurden, sowie fast identische Segmente, also beispielsweise Neucodierungen, Verschleierungen, Kürzungen oder Skalierungen von Videos mit Darstellungen des sexuellen Missbrauchs von Kindern – selbst wenn ein Video nur einen kleinen Teil dieser Darstellungen enthält, der möglicherweise mit anderen Inhalten vermischt ist. Die Partner führen ein Fingerprinting-Binärprogramm aus, um einen „Fingerabdruck“ (engl. „fingerprint“) des Videos zu erstellen. Dies ist eine Bytesequenz, die einem MD5-Hash ähnelt. Die Bytesequenz wird dann an den CSAI Match-Dienst von Google gesendet, der speziell auf effiziente Scans von Videos und deren Abgleich mit dem YouTube-Korpus bekannter Referenzen mit Darstellungen des sexuellen Missbrauchs von Kindern ausgelegt ist.