Melhor priorização
As APIs ajudam no combate à exploração infantil on-line ao priorizar conteúdo abusivo para revisão humana.
Identificação mais rápida
Identificar o conteúdo mais rapidamente aumenta a probabilidade de que as vítimas sejam identificadas e protegidas de mais abuso.
Operações mais seguras
Reduzir o ruído e deixar o processo de revisão mais eficiente e organizado também alivia a carga dos moderadores de conteúdo humanos.
Saiba mais sobre nossas ferramentas
Nossas ferramentas têm capacidades complementares. Elas podem ser usadas em conjunto, bem como com outras soluções, para atender diferentes demandas.
API Content Safety
Classifica imagens e vídeos ainda não vistos
CSAI Match
Busca segmentos correspondentes em vídeos abusivos conhecidos
API Content Safety
Usada para: classificar imagens e vídeos ainda não vistos
O classificador da API Content Safety usa acesso programático e inteligência artificial para ajudar os parceiros a classificar e priorizar bilhões de imagens e vídeos para análise. Quanto mais alta a prioridade informada pelo classificador, maior a probabilidade de o arquivo de mídia conter material abusivo. Isso ajuda os parceiros a priorizar a revisão humana e a tomada de decisões sobre o conteúdo. A API Content Safety emite uma recomendação de prioridade para o conteúdo enviado. Os parceiros precisam fazer uma análise própria para determinar se alguma medida é necessária.
Operacionalmente, recomendamos que as organizações usem a API Content Safety logo antes do processo de análise manual para classificar, priorizar e organizar a fila. A API Content Safety pode ser usada em paralelo a outras soluções, como a ferramenta de hash de vídeo CSAI Match, do YouTube, ou o PhotoDNA, da Microsoft. Cada uma delas atendendo a demandas diferentes.
Como funciona?
1. Busca de arquivos
Os parceiros encontram os arquivos de diversas formas, como por denúncias de usuários e pela identificação com rastreadores ou filtros que criam para moderar imagens nas próprias plataformas.
Parceiro
Imagens ou vídeos denunciados por usuários
Rastreadores
Filtros
(pornografia/outros classificadores)
2. Revisão pela API
Os arquivos de mídia são enviados à API Content Safety por uma simples chamada de API. Eles são processados por classificadores para determinar a prioridade de análise de cada um. O valor de prioridade é, então, informado ao parceiro.
API Content Safety
Tecnologia de classificadores
3. Análise manual
Os parceiros usam o valor de prioridade para ordenar os arquivos que demandam atenção mais urgente dos revisores humanos.
Parceiro
Análise manual
4. Ação
Depois que os arquivos de imagem e vídeo são revisados manualmente, o parceiro pode tomar as medidas necessárias conforme as leis e regulamentações locais.
Parceiro
Providência adequada
CSAI Match
Usada para: buscar segmentos correspondentes em vídeos abusivos conhecidos
A CSAI Match é a tecnologia reservada do YouTube para combater imagens de abuso sexual infantil em vídeos on-line. Essa foi a primeira tecnologia a usar a correspondência de hash para identificar conteúdo abusivo já verificado e permite detectá-lo em meio a um grande volume de vídeos não abusivos. Quando um conteúdo abusivo é encontrado, ele é sinalizado para que os parceiros analisem, confirmem e denunciem de maneira responsável e de acordo com as leis e regulamentações locais. O YouTube disponibiliza a CSAI Match a parceiros do setor e ONGs. Concedemos acesso a software de impressão digital e uma API que identifica correspondência de conteúdo abusivo conhecido na nossa base de dados.
As plataformas on-line podem usar a CSAI Match para evitar que conteúdo abusivo seja exibido e compartilhado em sites, comparando o material com um dos maiores índices de imagens de abuso sexual infantil já verificadas. A integração da CSAI Match aos sistemas dos parceiros é simples e permite que eles dimensionem a gestão de conteúdo de modo mais adequado.
Como funciona?
1. Impressão digital de vídeos
Um vídeo é enviado à plataforma do parceiro. O Fingerprinter da CSAI Match, que opera na plataforma do parceiro, cria um arquivo da impressão digital do vídeo, um identificador virtual que representa o conteúdo do arquivo de vídeo de maneira única.
Parceiro
Arquivo de vídeo
Fingerprinter
Arquivo da impressão digital
2. Revisão pela API
O parceiro envia o arquivo de impressão digital pela API CSAI Match para ser comparado aos outros arquivos no repositório do YouTube. Esse repositório contém impressões digitais do conteúdo abusivo previamente detectado pelo YouTube e pelo Google.
YouTube
API CSAI Match
Tecnologia CSAI Match
Repositório compartilhado de impressões digitais
de imagens de abuso sexual infantil do Fingerprinter
3. Análise manual
Uma correspondência positiva ou negativa é devolvida ao parceiro assim que a chamada à API é concluída. Com base nas informações da correspondência, o parceiro analisa manualmente o vídeo para verificar se são imagens de abuso sexual infantil.
Parceiro
Análise manual
4. Ação
Após a análise das imagens, o parceiro pode tomar providências conforme as leis e regulamentações locais.
Parceiro
Providência adequada
API Content Safety
Usada para: classificar imagens e vídeos ainda não vistos
O classificador da API Content Safety usa acesso programático e inteligência artificial para ajudar os parceiros a classificar e priorizar bilhões de imagens e vídeos para análise. Quanto mais alta a prioridade informada pelo classificador, maior a probabilidade de o arquivo de mídia conter material abusivo. Isso ajuda os parceiros a priorizar a revisão humana e a tomada de decisões sobre o conteúdo. A API Content Safety emite uma recomendação de prioridade para o conteúdo enviado. Os parceiros precisam fazer uma análise própria para determinar se alguma medida é necessária.
Operacionalmente, recomendamos que as organizações usem a API Content Safety logo antes do processo de análise manual para classificar, priorizar e organizar a fila. A API Content Safety pode ser usada em paralelo a outras soluções, como a ferramenta de hash de vídeo CSAI Match, do YouTube, ou o PhotoDNA, da Microsoft. Cada uma delas atendendo a demandas diferentes.
API Content Safety
Usada para: classificar imagens e vídeos ainda não vistos
Como funciona?
Parceiro
Imagens ou vídeos denunciados por usuários
Rastreadores
Filtros
(pornografia/outros classificadores)
API Content Safety
Tecnologia de classificadores
Parceiro
Análise manual
Parceiro
Providência adequada
Quer usar nosso kit de ferramentas?
Informe alguns detalhes sobre a organização para registrar seu interesse
Preencha o formulário de interesseCSAI Match
Usada para: buscar segmentos correspondentes em vídeos abusivos conhecidos
A CSAI Match é a tecnologia reservada do YouTube para combater imagens de abuso sexual infantil em vídeos on-line. Essa foi a primeira tecnologia a usar a correspondência de hash para identificar conteúdo abusivo já verificado e permite detectá-lo em meio a um grande volume de vídeos não abusivos. Quando um conteúdo abusivo é encontrado, ele é sinalizado para que os parceiros analisem, confirmem e denunciem de maneira responsável e de acordo com as leis e regulamentações locais. O YouTube disponibiliza a CSAI Match a parceiros do setor e ONGs. Concedemos acesso a software de impressão digital e uma API que identifica correspondência de conteúdo abusivo conhecido na nossa base de dados.
As plataformas on-line podem usar a CSAI Match para evitar que conteúdo abusivo seja exibido e compartilhado em sites, comparando o material com um dos maiores índices de imagens de abuso sexual infantil já verificadas. A integração da CSAI Match aos sistemas dos parceiros é simples e permite que eles dimensionem a gestão de conteúdo de modo mais adequado.
CSAI Match
Usada para: buscar segmentos correspondentes em vídeos abusivos conhecidos
Como funciona?
Parceiro
Arquivo de vídeo
Fingerprinter
Arquivo da impressão digital
YouTube
API CSAI Match
Tecnologia CSAI Match
Repositório compartilhado de impressões digitais
de imagens de abuso sexual infantil do Fingerprinter
Parceiro
Análise manual
Parceiro
Providência adequada
Quer usar nosso kit de ferramentas?
Informe alguns detalhes sobre a organização para registrar seu interesse
Preencha o formulário de interesseQuer usar nosso kit de ferramentas?
Informe alguns detalhes sobre a organização para registrar seu interesse
Preencha o formulário de interesseDepoimentos
Perguntas frequentes
API Content Safety
Qual é o formato dos dados enviados para a API Content Safety?
Oferecemos opções para bytes de conteúdo e embeddings derivados dos arquivos de mídia. Entre em contato para saber mais detalhes.
Quem pode se inscrever para acessar a tecnologia e a API Content Safety?
Terceiros do setor e da sociedade civil que querem proteger plataformas contra abuso podem se inscrever para acessar a API Content Safety. As candidaturas estão sujeitas à aprovação.
Por que vocês disponibilizam essas ferramentas para tantas pessoas?
Acreditamos que a melhor abordagem para combater a exploração infantil na Internet é colaborar com outras empresas e ONGs. Trabalhamos há muito tempo com o setor e com essas organizações para apoiar o desenvolvimento de novas ferramentas de dados, aprimorar a capacidade técnica e aumentar a conscientização. Disponibilizar essas ferramentas para que nossos parceiros melhorem a análise de grandes quantidades de conteúdo com a IA é uma parte importante desse combate.
CSAI Match
A tecnologia CSAI Match funciona para imagens?
A tecnologia CSAI Match foi desenvolvida para vídeos, mas com a API Content Safety do Google, ONGs e parceiros do setor podem acessar uma série de ferramentas que classificam imagens usando o aprendizado de máquina. Saiba mais.
Quais informações são retornadas quando uma correspondência é identificada?
A ferramenta identifica que parte do vídeo corresponde a imagens de abuso sexual infantil já verificadas e indica a categoria padronizada do tipo de conteúdo encontrado.
O que torna a tecnologia CSAI Match tão eficaz?
A CSAI Match também detecta segmentos semelhantes. Isso inclui cópias integrais que seriam identificadas por correspondência de hash MD5, bem como quase cópias, que podem ser recodificações, ofuscações, truncamentos ou redimensionamentos de vídeos com imagens de abuso sexual infantil. Assim, a tecnologia funciona mesmo quando o vídeo inclui apenas uma pequena quantidade dessas imagens, talvez misturadas com outros conteúdos. Os parceiros executam um binário que produz uma "impressão digital" do vídeo, uma sequência de bytes similar a um hash MD5. Depois, isso é enviado ao serviço da CSAI Match do Google, que foi criado especialmente para analisar de forma eficaz um vídeo em comparação com a base de referência de imagens de abuso sexual infantil já verificadas do YouTube.