Mejor priorización

Mejor priorización


Las APIs ayudan a luchar contra la explotación infantil online al priorizar la revisión humana de contenido inadecuado.

Identificación rápida

Identificación más rápida


Al ser más rápidos al identificar contenido, aumenta la posibilidad de poder identificar a las víctimas y protegerlas de más abusos.

Operaciones más seguras

Operaciones más seguras


Al optimizar y agilizar las colas de revisión, se reduce también la carga de trabajo de los moderadores humanos de contenido.

Más información sobre nuestras herramientas

Nuestras herramientas tienen capacidades complementarias. Se pueden utilizar conjuntamente y con otras soluciones para satisfacer distintas necesidades.

API Content Safety

API Content Safety

Clasificar imágenes que no se han visto previamente

CSAI Match

CSAI Match

Identificar coincidencias de segmentos de vídeo inadecuados conocidos

API Content Safety

Se usa para clasificar imágenes que no se han visto previamente


El clasificador de la API Content Safety utiliza el acceso mediante programación y la inteligencia artificial para ayudar a nuestros partners a clasificar y priorizar la revisión de miles de millones de imágenes. Cuanto más alta sea la prioridad otorgada por el clasificador, más probable es que la imagen contenga material inadecuado, lo que puede ayudar a los partners a priorizar su revisión humana y a realizar su propia determinación del contenido. La API Content Safety publica una recomendación de priorización del contenido que se le envía. Los partners deben realizar su propia revisión para determinar si se debe actuar sobre el contenido.

Desde el punto de vista operativo, recomendamos a las organizaciones que utilicen la API Content Safety justo antes del proceso de revisión manual, para clasificar, priorizar y ayudar a organizar su lista. La API Content Safety se puede utilizar en paralelo con otras soluciones, como las herramientas de coincidencia de hash de vídeos CSAI Match de YouTube o PhotoDNA de Microsoft, que cubren distintas necesidades.

¿Cómo funciona?

Extracción de imágenes

1. Extracción de imágenes

El partner recupera las imágenes de varias maneras, como por haber sido denunciadas por un usuario o identificadas por rastreadores o filtros que el partner haya creado para moderar las imágenes en su plataforma.

Partner

Imágenes denunciadas por los usuarios

Rastreadores

Filtros previos

(porno/otros clasificadores)

Revisión mediante la API

2. Revisión mediante la API

Los archivos de imágenes se envían después a la API Content Safety mediante una simple llamada a la API. Se procesan en clasificadores para determinar la prioridad de revisión y, a continuación, se devuelve al partner el valor de la prioridad de cada una de las imágenes.

Google

API Content Safety

Tecnología de clasificador

Revisión manual

3. Revisión manual

Los partners usan el valor de la prioridad para empezar a revisar manualmente las imágenes que requieren más atención.

Partner

Revisión manual

Actúa

4. Actúa

Cuando las imágenes se hayan revisado manualmente, el partner podrá actuar sobre el contenido según la legislación local.

Partner

Actuar en consecuencia

CSAI Match

Se usa para identificar coincidencias de segmentos de vídeo inadecuados conocidos


CSAI Match es una tecnología propia de YouTube para combatir las imágenes de abuso sexual infantil en vídeos online. Fue la primera tecnología en usar la coincidencia de hash para identificar contenido infractor entre gran cantidad de contenido no infractor. Cuando se detecta una coincidencia de contenido infractor, se marca para que los partners lo revisen, confirmen y denuncien de forma responsable según las leyes y regulaciones locales. YouTube ofrece CSAI Match a los partners del sector y ONGs. Les permitimos acceder a software que recoge huellas digitales y una API para identificar coincidencias en nuestra base de datos de contenido abusivo.

Las plataformas online pueden impedir que se muestre y se comparta contenido infractor en sus sitios utilizando CSAI Match para comparar su contenido con uno de los mayores índices conocidos de contenido de imágenes de abuso sexual infantil. Los partners pueden integrar fácilmente CSAI Match en sus sistemas para afrontar mejor el reto de la gestión de contenido.

¿Cómo funciona?

Recogida de huella digital de vídeo

1. Recogida de huella digital de vídeo

Cuando se sube un vídeo a la plataforma del partner, el creador de huella digital de CSAI Match, que se ejecuta en la plataforma del partner, crea un archivo de huella digital del vídeo, un ID digital único que representa el contenido del archivo de vídeo.

Partner

Archivo de vídeo

Creador de huella digital

Archivo de huella digital

Revisión mediante la API

2. Revisión mediante la API

El partner envía el archivo de huella digital mediante la API CSAI Match para compararlo con los demás archivos del repositorio de huellas digitales de YouTube. El repositorio contiene huellas digitales de contenido inadecuado conocido detectado por YouTube y Google.

YouTube

API CSAI Match

Tecnología CSAI Match

Imágenes de abuso sexual compartidas

Repositorio de huellas digitales

Revisión manual

3. Revisión manual

El partner recibe una coincidencia positiva o negativa cuando se completa la llamada a la API. Según la coincidencia, el partner revisa manualmente el vídeo para verificar que contiene imágenes de abuso sexual infantil.

Partner

Revisión manual

Actúa

4. Actúa

Una vez revisadas las imágenes, el partner puede actuar sobre el contenido según la legislación local.

Partner

Actuar en consecuencia

API Content Safety

Se usa para clasificar imágenes que no se han visto previamente

El clasificador de la API Content Safety utiliza el acceso mediante programación y la inteligencia artificial para ayudar a nuestros partners a clasificar y priorizar la revisión de miles de millones de imágenes. Cuanto más alta sea la prioridad otorgada por el clasificador, más probable es que la imagen contenga material inadecuado, lo que puede ayudar a los partners a priorizar su revisión humana y a realizar su propia determinación del contenido. La API Content Safety publica una recomendación de priorización del contenido que se le envía. Los partners deben realizar su propia revisión para determinar si se debe actuar sobre el contenido.

Desde el punto de vista operativo, recomendamos a las organizaciones que utilicen la API Content Safety justo antes del proceso de revisión manual, para clasificar, priorizar y ayudar a organizar su lista. La API Content Safety se puede utilizar en paralelo con otras soluciones, como las herramientas de coincidencia de hash de vídeos CSAI Match de YouTube o PhotoDNA de Microsoft, que cubren distintas necesidades.

CSAI Match

Se usa para identificar coincidencias de segmentos de vídeo inadecuados conocidos

CSAI Match es una tecnología propia de YouTube para combatir las imágenes de abuso sexual infantil en vídeos online. Fue la primera tecnología en usar la coincidencia de hash para identificar contenido infractor entre gran cantidad de contenido no infractor. Cuando se detecta una coincidencia de contenido infractor, se marca para que los partners lo revisen, confirmen y denuncien de forma responsable según las leyes y regulaciones locales. YouTube ofrece CSAI Match a los partners del sector y ONGs. Les permitimos acceder a software que recoge huellas digitales y una API para identificar coincidencias en nuestra base de datos de contenido abusivo.

Las plataformas online pueden impedir que se muestre y se comparta contenido infractor en sus sitios utilizando CSAI Match para comparar su contenido con uno de los mayores índices conocidos de contenido de imágenes de abuso sexual infantil. Los partners pueden integrar fácilmente CSAI Match en sus sistemas para afrontar mejor el reto de la gestión de contenido.

Formulario de interés en el kit de herramientas de seguridad infantil

¿Te interesa utilizar nuestro kit de herramientas?

Comparte algunos detalles sobre tu organización para dejar constancia de tu interés

Ver el formulario de interés

Testimonios

Preguntas frecuentes

API Content Safety

¿La API Content Safety funciona con vídeos?

La API Content Safety está diseñada para imágenes, pero mediante la herramienta CSAI Match de YouTube, las organizaciones pueden acceder a software que recoge huellas digitales y a una API para identificar coincidencias en nuestra base de datos de contenido de vídeo inadecuado. Más información

¿Quién puede registrarse para usar la API Content Safety y nuestra tecnología?

Las empresas del sector y la sociedad civil que quieren proteger sus plataformas de abusos pueden registrarse para acceder a la API Content Safety. Nos reservamos el derecho a revisar y aprobar las solicitudes.

¿Por qué ponéis estas herramientas a disposición de todo el mundo?

Creemos que la mejor forma de hacer frente a la explotación infantil online es colaborar con otras empresas y ONGs. Llevamos mucho tiempo trabajando con las empresas del sector y diferentes ONGs para contribuir al desarrollo de nuevas herramientas basadas en datos, incrementar la capacidad técnica y concienciar sobre este problema. Creemos que una parte importante de esta lucha es ofrecer estas herramientas de forma generalizada, de manera que nuestros partners puedan usar IA para mejorar la revisión de contenido a gran escala.

CSAI Match

¿CSAI Match funciona con imágenes?

La herramienta CSAI Match está diseñada para vídeos, pero a través de la API Content Safety de Google, ofrecemos a los partners del sector y las ONGs varias herramientas que permiten clasificar las imágenes mediante aprendizaje automático. Más información

¿Qué información se devuelve cuando se identifica una coincidencia?

La herramienta identificará la parte del vídeo que coincide con imágenes de abuso sexual infantil conocidas, y realizará una categorización estandarizada del tipo de contenido con el que ha coincidido.

¿Qué hace que la tecnología CSAI Match sea tan eficiente?

CSAI Match detecta segmentos casi idénticos de contenido de imágenes de abuso sexual infantil conocidas. Incluye los duplicados completos que obtendría la coincidencia de hash MD5, así como contenido casi duplicado de vídeos con imágenes de abuso sexual infantil que podrían haber sido recodificados, ofuscados, truncados o escalados, incluso si el vídeo solo contiene una pequeña parte de este tipo de contenido mezclado con otro tipo de contenido. Los partners ejecutan un binario para producir una huella digital del vídeo, que es una secuencia de bytes similar a un hash MD5. A continuación, se envía esta huella al servicio CSAI Match de Google, que está diseñado específicamente para que sea eficiente al analizar vídeos y compararlos con el corpus de referencias conocidas de imágenes de abuso sexual infantil de YouTube.