Bessere Priorisierung
Die APIs unterstützen die Bekämpfung der Ausbeutung von Kindern im Internet. Dazu werden missbräuchliche Inhalte für die manuelle Überprüfung priorisiert.
Schnellere Identifikation
Durch die schnellere Identifikation von Inhalten steigt die Wahrscheinlichkeit, dass Opfer identifiziert und vor weiterem Missbrauch geschützt werden können.
Mehr Sicherheit für Abläufe
Ein effizienterer Überprüfungsprozess entlastet auch die Inhaltsmoderatoren.
Informationen zu unseren Tools
Die Funktionen unserer Tools ergänzen sich gegenseitig. Sie können gemeinsam und mit anderen Lösungen verwendet werden, um verschiedene Anforderungen zu erfüllen.
Content Safety API
Klassifizierung bisher unbekannter Bilder
CSAI Match
Abgleich mit bekannten missbräuchlichen Videoinhalten
Content Safety API
Verwendungszweck: Klassifizierung bisher unbekannter Bilder
Beim Content Safety API-Klassifikator werden unsere Partner durch programmatischen Zugriff und künstliche Intelligenz dabei unterstützt, Milliarden von Bildern zu klassifizieren und zu priorisieren. Je höher die vom Klassifikator festgelegte Priorität ist, desto wahrscheinlicher ist es, dass das Bild missbräuchliche Inhalte aufweist. Hierdurch können Partner die manuelle Überprüfung besser priorisieren und im Hinblick auf die Inhalte leichter zu einer Entscheidung kommen. Die Content Safety API gibt eine Priorisierungsempfehlung für die Inhalte aus, die an sie gesendet werden. Partner müssen durch eine eigene Überprüfung ermitteln, ob sie für die Inhalte Maßnahmen ergreifen müssen.
Wir empfehlen Organisationen, die Content Safety API direkt vor der manuellen Überprüfung einzusetzen, um die Elemente in der Warteschlange besser klassifizieren, priorisieren und strukturieren zu können. Die Content Safety API kann parallel zu anderen Lösungen eingesetzt werden – sei es das Video-Hashing-Tool CSAI Match von YouTube oder PhotoDNA von Microsoft. Sie alle erfüllen jeweils unterschiedliche Zwecke.
Funktionsweise
1. Bildabruf
Bilder werden vom Partner auf verschiedene Arten abgerufen. Dabei handelt es sich beispielsweise um Bilder, die von einem Nutzer gemeldet oder von Crawlern bzw. Filtern identifiziert wurden, die der Partner erstellt hat, um Bilder auf seiner Plattform zu moderieren.
Partner
Von Nutzern gemeldete Bilder
Crawler
Vorfilter
(Klassifikatoren für pornografische/andere Inhalte)
2. API-Überprüfung
Die Bilddateien werden dann über einen einfachen API-Aufruf an die Content Safety API gesendet. Sie durchlaufen Klassifikatoren, mit deren Hilfe die Überprüfungspriorität ermittelt wird. Anschließend wird der Prioritätswert für jedes der Bilder an den Partner zurückgesendet.
Content Safety API
Klassifikatortechnologie
3. Manuelle Überprüfung
Anhand des Prioritätswerts können die Bilder, bei denen vorrangiger Handlungsbedarf besteht, direkt manuell geprüft werden.
Partner
Manuelle Überprüfung
4. Ergreifung von Maßnahmen
Nach der manuellen Überprüfung der Bilder kann der Partner gemäß den lokalen Gesetzen und Bestimmungen geeignete Maßnahmen für die Inhalte ergreifen.
Partner
Entsprechende Maßnahme
CSAI Match
Verwendungszweck: Abgleich mit bekannten missbräuchlichen Videoinhalten
CSAI Match ist eine YouTube-Technologie zur Bekämpfung von Videos im Internet, die Darstellungen des sexuellen Missbrauchs von Kindern enthalten. Dabei wurde erstmals die Hash-Technologie eingesetzt, um bereits bekannte Inhalte zu kennzeichnen. Dadurch können wir diese Darstellungen sofort erkennen, wenn sie nochmals auftauchen. Aufgrund der großen Zahl an Videos, die keine Verstöße enthalten, ist es ohne diese Technik extrem schwer, illegale Videos aufzuspüren. Wenn nicht richtlinienkonforme Inhalte gefunden werden, werden diese unseren Partnern gemeldet, die sie überprüfen und gemäß den lokalen Gesetzen und Bestimmungen damit verfahren. YouTube stellt Branchenpartnern und Nichtregierungsorganisationen CSAI Match zur Verfügung. Wir bieten Zugriff auf die Fingerprinting-Software und eine API, anhand derer sich Übereinstimmungen mit unserer Datenbank bekannter missbräuchlicher Inhalte ermitteln lassen.
Mithilfe von CSAI Match können Onlineplattformen ihre Inhalte mit einem der größten Indexe bekannter Darstellungen des sexuellen Missbrauchs von Kindern vergleichen und so verhindern, dass unzulässige Inhalte auf ihren Websites angezeigt und geteilt werden. Partner können CSAI Match problemlos in ihre Systeme integrieren, um problematischen Inhalten besser Einhalt gebieten zu können.
Funktionsweise
1. Fingerabdruckerstellung (Fingerprinting) für Videos
Ein Video wird auf die Plattform des Partners hochgeladen. Der CSAI Match-Fingerprinter, der auf der Plattform des Partners ausgeführt wird, erstellt eine Fingerabdruckdatei des Videos, also eine digitale ID, die den Inhalt der Videodatei eindeutig darstellt.
Partner
Videodatei
Fingerprinter
Fingerabdruckdatei
2. API-Überprüfung
Der Partner sendet die Fingerabdruck-Datei über die CSAI Match API, damit sie mit den anderen Dateien im Fingerabdruck-Repository von YouTube verglichen wird. Das Repository enthält Fingerabdrücke von bekannten missbräuchlichen Inhalten, die von YouTube und Google erkannt wurden.
YouTube
CSAI Match API
CSAI Match-Technologie
Darstellungen des sexuellen Missbrauchs von Kindern
– gemeinsames Fingerabdruck-Repository
3. Manuelle Überprüfung
Sobald der Aufruf an die API abgeschlossen ist, wird dem Partner eine positive oder negative Übereinstimmung gemeldet. Anhand der Informationen zur Übereinstimmung überprüft der Partner das Video manuell, um zu bestätigen, dass es sich um Darstellungen des sexuellen Missbrauchs von Kindern handelt.
Partner
Manuelle Überprüfung
4. Ergreifung von Maßnahmen
Nach der Überprüfung der Bilder kann der Partner entsprechende Maßnahmen im Einklang mit den lokalen Gesetzen und Bestimmungen ergreifen.
Partner
Entsprechende Maßnahme
Content Safety API
Verwendungszweck: Klassifizierung bisher unbekannter Bilder
Beim Content Safety API-Klassifikator werden unsere Partner durch programmatischen Zugriff und künstliche Intelligenz dabei unterstützt, Milliarden von Bildern zu klassifizieren und zu priorisieren. Je höher die vom Klassifikator festgelegte Priorität ist, desto wahrscheinlicher ist es, dass das Bild missbräuchliche Inhalte aufweist. Hierdurch können Partner die manuelle Überprüfung besser priorisieren und im Hinblick auf die Inhalte leichter zu einer Entscheidung kommen. Die Content Safety API gibt eine Priorisierungsempfehlung für die Inhalte aus, die an sie gesendet werden. Partner müssen durch eine eigene Überprüfung ermitteln, ob sie für die Inhalte Maßnahmen ergreifen müssen.
Wir empfehlen Organisationen, die Content Safety API direkt vor der manuellen Überprüfung einzusetzen, um die Elemente in der Warteschlange besser klassifizieren, priorisieren und strukturieren zu können. Die Content Safety API kann parallel zu anderen Lösungen eingesetzt werden – sei es das Video-Hashing-Tool CSAI Match von YouTube oder PhotoDNA von Microsoft. Sie alle erfüllen jeweils unterschiedliche Zwecke.
Content Safety API
Verwendungszweck: Klassifizierung bisher unbekannter Bilder
Funktionsweise
Partner
Von Nutzern gemeldete Bilder
Crawler
Vorfilter
(Klassifikatoren für pornografische/andere Inhalte)
Content Safety API
Klassifikatortechnologie
Partner
Manuelle Überprüfung
Partner
Entsprechende Maßnahme
Sie möchten unser Toolkit nutzen?
Geben Sie einige Details zu Ihrer Organisation an, um sich als Interessent zu registrieren.
Antragsformular anzeigenCSAI Match
Verwendungszweck: Abgleich mit bekannten missbräuchlichen Videoinhalten
CSAI Match ist eine YouTube-Technologie zur Bekämpfung von Videos im Internet, die Darstellungen des sexuellen Missbrauchs von Kindern enthalten. Dabei wurde erstmals die Hash-Technologie eingesetzt, um bereits bekannte Inhalte zu kennzeichnen. Dadurch können wir diese Darstellungen sofort erkennen, wenn sie nochmals auftauchen. Aufgrund der großen Zahl an Videos, die keine Verstöße enthalten, ist es ohne diese Technik extrem schwer, illegale Videos aufzuspüren. Wenn nicht richtlinienkonforme Inhalte gefunden werden, werden diese unseren Partnern gemeldet, die sie überprüfen und gemäß den lokalen Gesetzen und Bestimmungen damit verfahren. YouTube stellt Branchenpartnern und Nichtregierungsorganisationen CSAI Match zur Verfügung. Wir bieten Zugriff auf die Fingerprinting-Software und eine API, anhand derer sich Übereinstimmungen mit unserer Datenbank bekannter missbräuchlicher Inhalte ermitteln lassen.
Mithilfe von CSAI Match können Onlineplattformen ihre Inhalte mit einem der größten Indexe bekannter Darstellungen des sexuellen Missbrauchs von Kindern vergleichen und so verhindern, dass unzulässige Inhalte auf ihren Websites angezeigt und geteilt werden. Partner können CSAI Match problemlos in ihre Systeme integrieren, um problematischen Inhalten besser Einhalt gebieten zu können.
CSAI Match
Verwendungszweck: Abgleich mit bekannten missbräuchlichen Videoinhalten
Funktionsweise
Partner
Videodatei
Fingerprinter
Fingerabdruckdatei
YouTube
CSAI Match API
CSAI Match-Technologie
Darstellungen des sexuellen Missbrauchs von Kindern
– gemeinsames Fingerabdruck-Repository
Partner
Manuelle Überprüfung
Partner
Entsprechende Maßnahme
Sie möchten unser Toolkit nutzen?
Geben Sie einige Details zu Ihrer Organisation an, um sich als Interessent zu registrieren.
Antragsformular anzeigenSie möchten unser Toolkit nutzen?
Geben Sie einige Details zu Ihrer Organisation an, um sich als Interessent zu registrieren.
Antragsformular anzeigenErfahrungsberichte
FAQs
Content Safety API
Funktioniert die Content Safety API bei Videos?
Die Content Safety API wurde für Bilder entwickelt. Mit CSAI Match von YouTube können Organisationen aber auf eine Fingerprinting-Software und eine API zugreifen, über die sie Videos mit unserer Datenbank bekannter Videoinhalte abgleichen können. Weitere Informationen
Wer kann sich für die Nutzung der Technologie und der Content Safety API anmelden?
Unternehmen und zivilgesellschaftliche Interessenten, die Missbrauch auf ihren Plattformen bekämpfen und verhindern möchten, können sich für die Content Safety API anmelden. Die Anfragen werden dann von uns geprüft.
Warum stellt Google diese Tools so umfassend zur Verfügung?
Am wirkungsvollsten können wir die Ausbeutung von Kindern im Internet bekämpfen, wenn wir uns mit anderen Unternehmen und mit Nichtregierungsorganisationen zusammenschließen. Darum arbeiten wir mit unseren Partnern schon seit Langem gemeinsam daran, neue datengestützte Tools zu entwickeln, die technischen Möglichkeiten insgesamt zu erweitern und ein generelles Bewusstsein für die Existenz von Darstellungen des sexuellen Missbrauchs von Kindern zu schaffen. Wir haben diese Tools vielen unserer Partner zugänglich gemacht, damit sie Inhalte besser in großem Maßstab überprüfen können. Damit leisten wir nach unserer Überzeugung einen wichtigen Beitrag im Kampf gegen die Ausbeutung von Kindern.
CSAI Match
Funktioniert CSAI Match bei Bildern?
CSAI Match wurde für Videos entwickelt. Die Content Safety API von Google bietet unseren Partnern bei Nichtregierungsorganisationen und in der Branche aber eine Reihe von Tools, durch die man Bilder mithilfe von maschinellem Lernen klassifizieren kann. Weitere Informationen
Welche Informationen werden im Falle einer Übereinstimmung zurückgegeben?
Bei einem Treffer wird angegeben, welcher Teil des Videos mit bekannten Darstellungen des sexuellen Missbrauchs von Kindern übereinstimmt. Außerdem findet eine standardisierte Kategorisierung der Art der abgeglichenen Inhalte statt.
Weshalb ist die CSAI Match-Technologie so effizient?
CSAI Match erkennt fast identische Segmente von bekannten Inhalten mit Darstellungen des sexuellen Missbrauchs von Kindern. Hierzu zählen vollständige Duplikate, die beim Abgleich von MD5-Hashes ermittelt wurden, sowie fast identische Segmente, also beispielsweise Neucodierungen, Verschleierungen, Kürzungen oder Skalierungen von Videos mit Darstellungen des sexuellen Missbrauchs von Kindern – selbst wenn ein Video nur einen kleinen Teil dieser Darstellungen enthält, der möglicherweise mit anderen Inhalten vermischt ist. Die Partner führen ein Fingerprinting-Binärprogramm aus, um einen „Fingerabdruck“ (engl. „fingerprint“) des Videos zu erstellen. Dies ist eine Bytesequenz, die einem MD5-Hash ähnelt. Die Bytesequenz wird dann an den CSAI Match-Dienst von Google gesendet, der speziell auf effiziente Scans von Videos und deren Abgleich mit dem YouTube-Korpus bekannter Referenzen mit Darstellungen des sexuellen Missbrauchs von Kindern ausgelegt ist.