Melhor priorização

Melhor priorização


As APIs ajudam no combate à exploração infantil on-line ao priorizar conteúdo abusivo para revisão humana.

Identificação rápida

Identificação mais rápida


Identificar o conteúdo mais rapidamente aumenta a probabilidade de que as vítimas sejam identificadas e protegidas de mais abuso.

Operações mais seguras

Operações mais seguras


Reduzir o ruído e deixar o processo de revisão mais eficiente e organizado também alivia a carga dos moderadores de conteúdo humanos.

Saiba mais sobre nossas ferramentas

Nossas ferramentas têm capacidades complementares. Elas podem ser usadas em conjunto, bem como com outras soluções, para atender diferentes demandas.

API Content Safety

API Content Safety

Classifica imagens e vídeos ainda não vistos

CSAI Match

CSAI Match

Busca segmentos correspondentes em vídeos abusivos conhecidos

API Content Safety

Usada para: classificar imagens e vídeos ainda não vistos


O classificador da API Content Safety usa acesso programático e inteligência artificial para ajudar os parceiros a classificar e priorizar bilhões de imagens e vídeos para análise. Quanto mais alta a prioridade informada pelo classificador, maior a probabilidade de o arquivo de mídia conter material abusivo. Isso ajuda os parceiros a priorizar a revisão humana e a tomada de decisões sobre o conteúdo. A API Content Safety emite uma recomendação de prioridade para o conteúdo enviado. Os parceiros precisam fazer uma análise própria para determinar se alguma medida é necessária.

Operacionalmente, recomendamos que as organizações usem a API Content Safety logo antes do processo de análise manual para classificar, priorizar e organizar a fila. A API Content Safety pode ser usada em paralelo a outras soluções, como a ferramenta de hash de vídeo CSAI Match, do YouTube, ou o PhotoDNA, da Microsoft. Cada uma delas atendendo a demandas diferentes.

Como funciona?

Busca de imagens

1. Busca de arquivos

Os parceiros encontram os arquivos de diversas formas, como por denúncias de usuários e pela identificação com rastreadores ou filtros que criam para moderar imagens nas próprias plataformas.

Parceiro

Imagens ou vídeos denunciados por usuários

Rastreadores

Filtros

(pornografia/outros classificadores)

Revisão pela API

2. Revisão pela API

Os arquivos de mídia são enviados à API Content Safety por uma simples chamada de API. Eles são processados por classificadores para determinar a prioridade de análise de cada um. O valor de prioridade é, então, informado ao parceiro.

Google

API Content Safety

Tecnologia de classificadores

Análise manual

3. Análise manual

Os parceiros usam o valor de prioridade para ordenar os arquivos que demandam atenção mais urgente dos revisores humanos.

Parceiro

Análise manual

Ação

4. Ação

Depois que os arquivos de imagem e vídeo são revisados manualmente, o parceiro pode tomar as medidas necessárias conforme as leis e regulamentações locais.

Parceiro

Providência adequada

CSAI Match

Usada para: buscar segmentos correspondentes em vídeos abusivos conhecidos


A CSAI Match é a tecnologia reservada do YouTube para combater imagens de abuso sexual infantil em vídeos on-line. Essa foi a primeira tecnologia a usar a correspondência de hash para identificar conteúdo abusivo já verificado e permite detectá-lo em meio a um grande volume de vídeos não abusivos. Quando um conteúdo abusivo é encontrado, ele é sinalizado para que os parceiros analisem, confirmem e denunciem de maneira responsável e de acordo com as leis e regulamentações locais. O YouTube disponibiliza a CSAI Match a parceiros do setor e ONGs. Concedemos acesso a software de impressão digital e uma API que identifica correspondência de conteúdo abusivo conhecido na nossa base de dados.

As plataformas on-line podem usar a CSAI Match para evitar que conteúdo abusivo seja exibido e compartilhado em sites, comparando o material com um dos maiores índices de imagens de abuso sexual infantil já verificadas. A integração da CSAI Match aos sistemas dos parceiros é simples e permite que eles dimensionem a gestão de conteúdo de modo mais adequado.

Como funciona?

Impressão digital de vídeos

1. Impressão digital de vídeos

Um vídeo é enviado à plataforma do parceiro. O Fingerprinter da CSAI Match, que opera na plataforma do parceiro, cria um arquivo da impressão digital do vídeo, um identificador virtual que representa o conteúdo do arquivo de vídeo de maneira única.

Parceiro

Arquivo de vídeo

Fingerprinter

Arquivo da impressão digital

Revisão pela API

2. Revisão pela API

O parceiro envia o arquivo de impressão digital pela API CSAI Match para ser comparado aos outros arquivos no repositório do YouTube. Esse repositório contém impressões digitais do conteúdo abusivo previamente detectado pelo YouTube e pelo Google.

YouTube

API CSAI Match

Tecnologia CSAI Match

Repositório compartilhado de impressões digitais

de imagens de abuso sexual infantil do Fingerprinter

Análise manual

3. Análise manual

Uma correspondência positiva ou negativa é devolvida ao parceiro assim que a chamada à API é concluída. Com base nas informações da correspondência, o parceiro analisa manualmente o vídeo para verificar se são imagens de abuso sexual infantil.

Parceiro

Análise manual

Ação

4. Ação

Após a análise das imagens, o parceiro pode tomar providências conforme as leis e regulamentações locais.

Parceiro

Providência adequada

API Content Safety

Usada para: classificar imagens e vídeos ainda não vistos

O classificador da API Content Safety usa acesso programático e inteligência artificial para ajudar os parceiros a classificar e priorizar bilhões de imagens e vídeos para análise. Quanto mais alta a prioridade informada pelo classificador, maior a probabilidade de o arquivo de mídia conter material abusivo. Isso ajuda os parceiros a priorizar a revisão humana e a tomada de decisões sobre o conteúdo. A API Content Safety emite uma recomendação de prioridade para o conteúdo enviado. Os parceiros precisam fazer uma análise própria para determinar se alguma medida é necessária.

Operacionalmente, recomendamos que as organizações usem a API Content Safety logo antes do processo de análise manual para classificar, priorizar e organizar a fila. A API Content Safety pode ser usada em paralelo a outras soluções, como a ferramenta de hash de vídeo CSAI Match, do YouTube, ou o PhotoDNA, da Microsoft. Cada uma delas atendendo a demandas diferentes.

CSAI Match

Usada para: buscar segmentos correspondentes em vídeos abusivos conhecidos

A CSAI Match é a tecnologia reservada do YouTube para combater imagens de abuso sexual infantil em vídeos on-line. Essa foi a primeira tecnologia a usar a correspondência de hash para identificar conteúdo abusivo já verificado e permite detectá-lo em meio a um grande volume de vídeos não abusivos. Quando um conteúdo abusivo é encontrado, ele é sinalizado para que os parceiros analisem, confirmem e denunciem de maneira responsável e de acordo com as leis e regulamentações locais. O YouTube disponibiliza a CSAI Match a parceiros do setor e ONGs. Concedemos acesso a software de impressão digital e uma API que identifica correspondência de conteúdo abusivo conhecido na nossa base de dados.

As plataformas on-line podem usar a CSAI Match para evitar que conteúdo abusivo seja exibido e compartilhado em sites, comparando o material com um dos maiores índices de imagens de abuso sexual infantil já verificadas. A integração da CSAI Match aos sistemas dos parceiros é simples e permite que eles dimensionem a gestão de conteúdo de modo mais adequado.

Formulário de interesse no Kit de ferramentas para segurança infantil

Quer usar nosso kit de ferramentas?

Informe alguns detalhes sobre a organização para registrar seu interesse

Preencha o formulário de interesse

Depoimentos

Perguntas frequentes

API Content Safety

Qual é o formato dos dados enviados para a API Content Safety?

Oferecemos opções para bytes de conteúdo e embeddings derivados dos arquivos de mídia. Entre em contato para saber mais detalhes.

Quem pode se inscrever para acessar a tecnologia e a API Content Safety?

Terceiros do setor e da sociedade civil que querem proteger plataformas contra abuso podem se inscrever para acessar a API Content Safety. As candidaturas estão sujeitas à aprovação.

Por que vocês disponibilizam essas ferramentas para tantas pessoas?

Acreditamos que a melhor abordagem para combater a exploração infantil na Internet é colaborar com outras empresas e ONGs. Trabalhamos há muito tempo com o setor e com essas organizações para apoiar o desenvolvimento de novas ferramentas de dados, aprimorar a capacidade técnica e aumentar a conscientização. Disponibilizar essas ferramentas para que nossos parceiros melhorem a análise de grandes quantidades de conteúdo com a IA é uma parte importante desse combate.

CSAI Match

A tecnologia CSAI Match funciona para imagens?

A tecnologia CSAI Match foi desenvolvida para vídeos, mas com a API Content Safety do Google, ONGs e parceiros do setor podem acessar uma série de ferramentas que classificam imagens usando o aprendizado de máquina. Saiba mais.

Quais informações são retornadas quando uma correspondência é identificada?

A ferramenta identifica que parte do vídeo corresponde a imagens de abuso sexual infantil já verificadas e indica a categoria padronizada do tipo de conteúdo encontrado.

O que torna a tecnologia CSAI Match tão eficaz?

A CSAI Match também detecta segmentos semelhantes. Isso inclui cópias integrais que seriam identificadas por correspondência de hash MD5, bem como quase cópias, que podem ser recodificações, ofuscações, truncamentos ou redimensionamentos de vídeos com imagens de abuso sexual infantil. Assim, a tecnologia funciona mesmo quando o vídeo inclui apenas uma pequena quantidade dessas imagens, talvez misturadas com outros conteúdos. Os parceiros executam um binário que produz uma "impressão digital" do vídeo, uma sequência de bytes similar a um hash MD5. Depois, isso é enviado ao serviço da CSAI Match do Google, que foi criado especialmente para analisar de forma eficaz um vídeo em comparação com a base de referência de imagens de abuso sexual infantil já verificadas do YouTube.