Melhor priorização

Melhor priorização


As APIs ajudam no combate à exploração infantil on-line ao priorizar conteúdo abusivo para revisão humana.

Identificação rápida

Identificação mais rápida


Identificar o conteúdo mais rapidamente aumenta a probabilidade de que as vítimas sejam identificadas e protegidas de mais abuso.

Operações mais seguras

Operações mais seguras


Reduzir o ruído e deixar o processo de revisão mais eficiente e organizado também alivia a carga dos moderadores de conteúdo humanos.

Saiba mais sobre nossas ferramentas

Nossas ferramentas têm capacidades complementares. Elas podem ser usadas juntas, bem como em conjunto com outras soluções, para atender diferentes demandas.

API Content Safety

API Content Safety

Classificar imagens ainda não vistas

CSAI Match

CSAI Match

Correspondência com segmentos de vídeos abusivos conhecidos

API Content Safety

Usada para: classificar imagens ainda não vistas


O classificador da API Content Safety usa acesso programático e inteligência artificial para ajudar os parceiros a classificar e priorizar bilhões de imagens para análise. Quanto mais alta a prioridade informada pelo classificador, maior a probabilidade de a imagem conter material abusivo. Isso ajuda os parceiros a priorizar a revisão humana e tomar as próprias decisões sobre o conteúdo. A API Content Safety emite uma recomendação de prioridade para o conteúdo enviado. Os parceiros precisam fazer uma análise própria para determinar se alguma medida é necessária.

Operacionalmente, recomendamos que as organizações usem a API Content Safety logo antes do processo de análise manual para classificar, priorizar e organizar a fila. A API Content Safety pode ser usada em paralelo a outras soluções, como a ferramenta de hash de vídeo CSAI Match, do YouTube, ou o PhotoDNA, da Microsoft. Cada uma delas atende a necessidades diferentes.

Como funciona?

Busca de imagens

1. Busca de imagens

As imagens são encontradas pelo parceiro por diversas formas, como denúncias de usuários, identificação por rastreadores ou filtros criados pelo parceiro para moderar imagens na plataforma.

Parceiro

Imagens denunciadas por usuários

Rastreadores

Filtros

(pornografia/outros classificadores)

Revisão pela API

2. Revisão pela API

Os arquivos de imagem são enviados à API Content Safety por uma simples chamada de API. Eles são processados por classificadores para determinar a prioridade de análise. O valor de prioridade é, então, informado ao parceiro.

Google

API Content Safety

Tecnologia de classificadores

Análise manual

3. Análise manual

Os parceiros usam o valor de prioridade para ordenar as imagens que demandam atenção mais urgente dos revisores humanos.

Parceiro

Análise manual

Ação

4. Ação

Depois que as imagens são revisadas manualmente, o parceiro pode tomar as medidas necessárias conforme as leis e regulamentações locais.

Parceiro

Providência adequada

CSAI Match

Usada para: correspondência com segmentos de vídeos abusivos conhecidos


A CSAI Match é a tecnologia própria do YouTube para combater imagens de abuso sexual infantil em vídeos on-line. Essa foi a primeira tecnologia a usar a correspondência de hash para identificar conteúdo abusivo já verificado e permite detectá-lo em meio a um grande volume de vídeos não abusivos. Quando um conteúdo abusivo é encontrado, ele é sinalizado para que os parceiros o analisem, confirmem e denunciem de maneira responsável e de acordo com as leis e regulamentos locais. O YouTube disponibiliza a CSAI Match a parceiros do setor e ONGs. Concedemos acesso a software de impressão digital e uma API que identifica correspondência de conteúdo abusivo conhecido na nossa base de dados.

As plataformas on-line podem usar a CSAI Match para evitar que conteúdo abusivo seja exibido e compartilhado em sites, comparando o material com um dos maiores índices de imagens de abuso sexual infantil já verificadas. A integração da CSAI Match aos sistemas dos parceiros é simples e permite que eles dimensionem o gerenciamento de conteúdo de forma mais adequada.

Como funciona?

Impressão digital de vídeos

1. Impressão digital de vídeos

Um vídeo é enviado à plataforma do parceiro. O Fingerprinter da CSAI Match, que opera na plataforma do parceiro, cria um arquivo da impressão digital do vídeo, um identificador virtual que representa o conteúdo do arquivo de vídeo de forma única.

Parceiro

Arquivo de vídeo

Fingerprinter

Arquivo da impressão digital

Revisão pela API

2. Revisão pela API

O parceiro envia o arquivo de impressão digital pela API CSAI Match para ser comparado aos outros arquivos no repositório do YouTube. Esse repositório contém impressões digitais do conteúdo abusivo previamente detectado pelo YouTube e pelo Google.

YouTube

API CSAI Match

Tecnologia CSAI Match

Repositório compartilhado de impressões digitais

de imagens de abuso sexual infantil

Análise manual

3. Análise manual

Uma correspondência positiva ou negativa é devolvida ao parceiro assim que a chamada à API é concluída. Com base nas informações da correspondência, o parceiro analisa manualmente o vídeo para verificar se são imagens de abuso sexual infantil.

Parceiro

Análise manual

Ação

4. Ação

Após a análise das imagens, o parceiro pode tomar providências conforme as leis e regulamentações locais.

Parceiro

Providência adequada

API Content Safety

Usada para: classificar imagens ainda não vistas

O classificador da API Content Safety usa acesso programático e inteligência artificial para ajudar os parceiros a classificar e priorizar bilhões de imagens para análise. Quanto mais alta a prioridade informada pelo classificador, maior a probabilidade de a imagem conter material abusivo. Isso ajuda os parceiros a priorizar a revisão humana e tomar as próprias decisões sobre o conteúdo. A API Content Safety emite uma recomendação de prioridade para o conteúdo enviado. Os parceiros precisam fazer uma análise própria para determinar se alguma medida é necessária.

Operacionalmente, recomendamos que as organizações usem a API Content Safety logo antes do processo de análise manual para classificar, priorizar e organizar a fila. A API Content Safety pode ser usada em paralelo a outras soluções, como a ferramenta de hash de vídeo CSAI Match, do YouTube, ou o PhotoDNA, da Microsoft. Cada uma delas atende a necessidades diferentes.

CSAI Match

Usada para: correspondência com segmentos de vídeos abusivos conhecidos

A CSAI Match é a tecnologia própria do YouTube para combater imagens de abuso sexual infantil em vídeos on-line. Essa foi a primeira tecnologia a usar a correspondência de hash para identificar conteúdo abusivo já verificado e permite detectá-lo em meio a um grande volume de vídeos não abusivos. Quando um conteúdo abusivo é encontrado, ele é sinalizado para que os parceiros o analisem, confirmem e denunciem de maneira responsável e de acordo com as leis e regulamentos locais. O YouTube disponibiliza a CSAI Match a parceiros do setor e ONGs. Concedemos acesso a software de impressão digital e uma API que identifica correspondência de conteúdo abusivo conhecido na nossa base de dados.

As plataformas on-line podem usar a CSAI Match para evitar que conteúdo abusivo seja exibido e compartilhado em sites, comparando o material com um dos maiores índices de imagens de abuso sexual infantil já verificadas. A integração da CSAI Match aos sistemas dos parceiros é simples e permite que eles dimensionem o gerenciamento de conteúdo de forma mais adequada.

Formulário de interesse no kit de ferramentas de segurança infantil

Quer usar nosso kit de ferramentas?

Compartilhe alguns detalhes sobre a organização para registrar seu interesse

Veja o formulário de interesse

Depoimentos

Perguntas frequentes

API Content Safety

A API Content Safety funciona para vídeo?

A API Content Safety foi desenvolvida para identificar imagens, mas com a CSAI Match, uma tecnologia do YouTube que identifica material de abuso sexual infantil, as organizações podem acessar um software de impressão digital e uma API para identificar conteúdo correspondente ao material de vídeo abusivo no nosso banco de dados. Saiba mais.

Quem pode se inscrever para acessar a tecnologia e a API Content Safety?

Terceiros do setor e da sociedade civil que querem proteger plataformas contra abuso podem se inscrever para acessar a API Content Safety. As candidaturas dependem de aprovação.

Por que vocês disponibilizam essas ferramentas tão abertamente?

Acreditamos que a melhor abordagem para combater a exploração infantil na Internet é colaborar com outras empresas e ONGs. Trabalhamos há muito tempo com o setor e com essas organizações para apoiar o desenvolvimento de novas ferramentas de dados, aprimorar a capacidade técnica e aumentar a conscientização. Acreditamos que disponibilizar essas ferramentas amplamente para que nossos parceiros melhorem a análise de grandes quantidades de conteúdo com a IA é uma parte importante desse combate.

CSAI Match

A tecnologia CSAI Match funciona para imagens?

A tecnologia CSAI Match foi desenvolvida para vídeos, mas com a API Content Safety do Google, ONGs e parceiros do setor podem acessar uma série de ferramentas que classificam imagens usando o inteligência artificial. Saiba mais (em inglês).

Quais informações são fornecidas quando uma correspondência é identificada?

A ferramenta identifica que parte do vídeo corresponde a imagens de abuso sexual infantil já verificadas e indica a categoria padronizada do tipo de conteúdo encontrado.

O que torna a tecnologia CSAI Match tão eficaz?

A CSAI Match detecta segmentos semelhantes a imagens de abuso sexual infantil já verificadas. Isso inclui cópias integrais que seriam identificadas por correspondência de hash MD5, bem como quase cópias, que podem ser recodificações, ofuscações, truncamentos ou redimensionamentos de vídeos com imagens de abuso sexual infantil. Assim, a tecnologia funciona mesmo quando o vídeo inclui apenas uma pequena quantidade dessas imagens, talvez misturadas com outros conteúdos. Os parceiros executam um binário que produz uma "impressão digital" do vídeo, uma sequência de bytes similar a um hash MD5. Depois, isso é enviado ao serviço da CSAI Match do Google, criado especialmente para ser eficaz ao analisar um vídeo em comparação com a base de referência de imagens de abuso sexual infantil já verificadas do YouTube.