Melhor priorização
As APIs ajudam no combate à exploração infantil on-line ao priorizar conteúdo abusivo para revisão humana.
Identificação mais rápida
Identificar o conteúdo mais rapidamente aumenta a probabilidade de que as vítimas sejam identificadas e protegidas de mais abuso.
Operações mais seguras
Reduzir o ruído e deixar o processo de revisão mais eficiente e organizado também alivia a carga dos moderadores de conteúdo humanos.
Saiba mais sobre nossas ferramentas
Nossas ferramentas têm capacidades complementares. Elas podem ser usadas juntas, bem como em conjunto com outras soluções, para atender diferentes demandas.
API Content Safety
Classificar imagens ainda não vistas
CSAI Match
Correspondência com segmentos de vídeos abusivos conhecidos
API Content Safety
Usada para: classificar imagens ainda não vistas
O classificador da API Content Safety usa acesso programático e inteligência artificial para ajudar os parceiros a classificar e priorizar bilhões de imagens para análise. Quanto mais alta a prioridade informada pelo classificador, maior a probabilidade de a imagem conter material abusivo. Isso ajuda os parceiros a priorizar a revisão humana e tomar as próprias decisões sobre o conteúdo. A API Content Safety emite uma recomendação de prioridade para o conteúdo enviado. Os parceiros precisam fazer uma análise própria para determinar se alguma medida é necessária.
Operacionalmente, recomendamos que as organizações usem a API Content Safety logo antes do processo de análise manual para classificar, priorizar e organizar a fila. A API Content Safety pode ser usada em paralelo a outras soluções, como a ferramenta de hash de vídeo CSAI Match, do YouTube, ou o PhotoDNA, da Microsoft. Cada uma delas atende a necessidades diferentes.
Como funciona?
1. Busca de imagens
As imagens são encontradas pelo parceiro por diversas formas, como denúncias de usuários, identificação por rastreadores ou filtros criados pelo parceiro para moderar imagens na plataforma.
Parceiro
Imagens denunciadas por usuários
Rastreadores
Filtros
(pornografia/outros classificadores)
2. Revisão pela API
Os arquivos de imagem são enviados à API Content Safety por uma simples chamada de API. Eles são processados por classificadores para determinar a prioridade de análise. O valor de prioridade é, então, informado ao parceiro.
API Content Safety
Tecnologia de classificadores
3. Análise manual
Os parceiros usam o valor de prioridade para ordenar as imagens que demandam atenção mais urgente dos revisores humanos.
Parceiro
Análise manual
4. Ação
Depois que as imagens são revisadas manualmente, o parceiro pode tomar as medidas necessárias conforme as leis e regulamentações locais.
Parceiro
Providência adequada
CSAI Match
Usada para: correspondência com segmentos de vídeos abusivos conhecidos
A CSAI Match é a tecnologia própria do YouTube para combater imagens de abuso sexual infantil em vídeos on-line. Essa foi a primeira tecnologia a usar a correspondência de hash para identificar conteúdo abusivo já verificado e permite detectá-lo em meio a um grande volume de vídeos não abusivos. Quando um conteúdo abusivo é encontrado, ele é sinalizado para que os parceiros o analisem, confirmem e denunciem de maneira responsável e de acordo com as leis e regulamentos locais. O YouTube disponibiliza a CSAI Match a parceiros do setor e ONGs. Concedemos acesso a software de impressão digital e uma API que identifica correspondência de conteúdo abusivo conhecido na nossa base de dados.
As plataformas on-line podem usar a CSAI Match para evitar que conteúdo abusivo seja exibido e compartilhado em sites, comparando o material com um dos maiores índices de imagens de abuso sexual infantil já verificadas. A integração da CSAI Match aos sistemas dos parceiros é simples e permite que eles dimensionem o gerenciamento de conteúdo de forma mais adequada.
Como funciona?
1. Impressão digital de vídeos
Um vídeo é enviado à plataforma do parceiro. O Fingerprinter da CSAI Match, que opera na plataforma do parceiro, cria um arquivo da impressão digital do vídeo, um identificador virtual que representa o conteúdo do arquivo de vídeo de forma única.
Parceiro
Arquivo de vídeo
Fingerprinter
Arquivo da impressão digital
2. Revisão pela API
O parceiro envia o arquivo de impressão digital pela API CSAI Match para ser comparado aos outros arquivos no repositório do YouTube. Esse repositório contém impressões digitais do conteúdo abusivo previamente detectado pelo YouTube e pelo Google.
YouTube
API CSAI Match
Tecnologia CSAI Match
Repositório compartilhado de impressões digitais
de imagens de abuso sexual infantil
3. Análise manual
Uma correspondência positiva ou negativa é devolvida ao parceiro assim que a chamada à API é concluída. Com base nas informações da correspondência, o parceiro analisa manualmente o vídeo para verificar se são imagens de abuso sexual infantil.
Parceiro
Análise manual
4. Ação
Após a análise das imagens, o parceiro pode tomar providências conforme as leis e regulamentações locais.
Parceiro
Providência adequada
API Content Safety
Usada para: classificar imagens ainda não vistas
O classificador da API Content Safety usa acesso programático e inteligência artificial para ajudar os parceiros a classificar e priorizar bilhões de imagens para análise. Quanto mais alta a prioridade informada pelo classificador, maior a probabilidade de a imagem conter material abusivo. Isso ajuda os parceiros a priorizar a revisão humana e tomar as próprias decisões sobre o conteúdo. A API Content Safety emite uma recomendação de prioridade para o conteúdo enviado. Os parceiros precisam fazer uma análise própria para determinar se alguma medida é necessária.
Operacionalmente, recomendamos que as organizações usem a API Content Safety logo antes do processo de análise manual para classificar, priorizar e organizar a fila. A API Content Safety pode ser usada em paralelo a outras soluções, como a ferramenta de hash de vídeo CSAI Match, do YouTube, ou o PhotoDNA, da Microsoft. Cada uma delas atende a necessidades diferentes.
API Content Safety
Usada para: classificar imagens ainda não vistas
Como funciona?
Parceiro
Imagens denunciadas por usuários
Rastreadores
Filtros
(pornografia/outros classificadores)
API Content Safety
Tecnologia de classificadores
Parceiro
Análise manual
Parceiro
Providência adequada
Quer usar nosso kit de ferramentas?
Compartilhe alguns detalhes sobre a organização para registrar seu interesse
Veja o formulário de interesseCSAI Match
Usada para: correspondência com segmentos de vídeos abusivos conhecidos
A CSAI Match é a tecnologia própria do YouTube para combater imagens de abuso sexual infantil em vídeos on-line. Essa foi a primeira tecnologia a usar a correspondência de hash para identificar conteúdo abusivo já verificado e permite detectá-lo em meio a um grande volume de vídeos não abusivos. Quando um conteúdo abusivo é encontrado, ele é sinalizado para que os parceiros o analisem, confirmem e denunciem de maneira responsável e de acordo com as leis e regulamentos locais. O YouTube disponibiliza a CSAI Match a parceiros do setor e ONGs. Concedemos acesso a software de impressão digital e uma API que identifica correspondência de conteúdo abusivo conhecido na nossa base de dados.
As plataformas on-line podem usar a CSAI Match para evitar que conteúdo abusivo seja exibido e compartilhado em sites, comparando o material com um dos maiores índices de imagens de abuso sexual infantil já verificadas. A integração da CSAI Match aos sistemas dos parceiros é simples e permite que eles dimensionem o gerenciamento de conteúdo de forma mais adequada.
CSAI Match
Usada para: correspondência com segmentos de vídeos abusivos conhecidos
Como funciona?
Parceiro
Arquivo de vídeo
Fingerprinter
Arquivo da impressão digital
YouTube
API CSAI Match
Tecnologia CSAI Match
Repositório compartilhado de impressões digitais
de imagens de abuso sexual infantil
Parceiro
Análise manual
Parceiro
Providência adequada
Quer usar nosso kit de ferramentas?
Compartilhe alguns detalhes sobre a organização para registrar seu interesse
Veja o formulário de interesseQuer usar nosso kit de ferramentas?
Compartilhe alguns detalhes sobre a organização para registrar seu interesse
Veja o formulário de interesseDepoimentos
Perguntas frequentes
API Content Safety
A API Content Safety funciona para vídeo?
A API Content Safety foi desenvolvida para identificar imagens, mas com a CSAI Match, uma tecnologia do YouTube que identifica material de abuso sexual infantil, as organizações podem acessar um software de impressão digital e uma API para identificar conteúdo correspondente ao material de vídeo abusivo no nosso banco de dados. Saiba mais.
Quem pode se inscrever para acessar a tecnologia e a API Content Safety?
Terceiros do setor e da sociedade civil que querem proteger plataformas contra abuso podem se inscrever para acessar a API Content Safety. As candidaturas dependem de aprovação.
Por que vocês disponibilizam essas ferramentas tão abertamente?
Acreditamos que a melhor abordagem para combater a exploração infantil na Internet é colaborar com outras empresas e ONGs. Trabalhamos há muito tempo com o setor e com essas organizações para apoiar o desenvolvimento de novas ferramentas de dados, aprimorar a capacidade técnica e aumentar a conscientização. Acreditamos que disponibilizar essas ferramentas amplamente para que nossos parceiros melhorem a análise de grandes quantidades de conteúdo com a IA é uma parte importante desse combate.
CSAI Match
A tecnologia CSAI Match funciona para imagens?
A tecnologia CSAI Match foi desenvolvida para vídeos, mas com a API Content Safety do Google, ONGs e parceiros do setor podem acessar uma série de ferramentas que classificam imagens usando o inteligência artificial. Saiba mais (em inglês).
Quais informações são fornecidas quando uma correspondência é identificada?
A ferramenta identifica que parte do vídeo corresponde a imagens de abuso sexual infantil já verificadas e indica a categoria padronizada do tipo de conteúdo encontrado.
O que torna a tecnologia CSAI Match tão eficaz?
A CSAI Match detecta segmentos semelhantes a imagens de abuso sexual infantil já verificadas. Isso inclui cópias integrais que seriam identificadas por correspondência de hash MD5, bem como quase cópias, que podem ser recodificações, ofuscações, truncamentos ou redimensionamentos de vídeos com imagens de abuso sexual infantil. Assim, a tecnologia funciona mesmo quando o vídeo inclui apenas uma pequena quantidade dessas imagens, talvez misturadas com outros conteúdos. Os parceiros executam um binário que produz uma "impressão digital" do vídeo, uma sequência de bytes similar a um hash MD5. Depois, isso é enviado ao serviço da CSAI Match do Google, criado especialmente para ser eficaz ao analisar um vídeo em comparação com a base de referência de imagens de abuso sexual infantil já verificadas do YouTube.