Malaki ang ipinupuhunan namin sa paglaban sa sekswal na pang-aabuso at pananamantala sa bata online at ginagamit namin ang aming proprietary technology para pigilan, i-detect, alisin, at iulat ang mga paglabag sa aming mga platform.

Nakikipagtulungan kami sa mga NGO at industriya sa mga programa para ibahagi ang aming techinical expertise, at bumubuo at nagbabahagi kami ng mga tool para matulungan ang mga organisasyon na labanan ang CSAM.

Matuto pa tungkol sa aming toolkit sa kaligtasan ng bata rito.

Paglaban sa pang-aabusong maaaring makita o ginagawa ng iba sa aming mga platform at serbisyo

Nakatuon at nilalabanan ng Google ang mga sekswal na pang-aabuso at pananamantala sa mga bata sa mga serbisyo nito mula pa noong simula. Naglalaan kami ng maraming resource—teknolohiya, mga tao, at oras—sa pagpigil, pag-detect, pag-aalis, at pag-uulat ng content at gawi ng sekswal na pananamantala sa bata.

Ano ang ginagawa namin?

Pagpigil sa pang-aabuso

Pagpigil sa pang-aabuso


Layunin naming pigilang mangyari ang pang-aabuso sa pamamagitan ng pagtiyak na ligtas na magagamit ng mga bata ang aming mga produkto. Ginagamit din namin ang lahat ng available na insight at pananaliksik para maunawaan ang mga nagbabagong banta at bagong paraan ng pananakit. Kumikilos kami hindi lang sa ilegal na CSAM, pero maging sa mas malawak na content na nagpo-promote ng sekswal na pang-aabuso sa mga bata at posibleng maglagay sa mga bata sa panganib.

Pagtukoy at pag-uulat

Pagtukoy at pag-uulat


Tinutukoy at inuulat namin ang CSAM sa pamamagitan ng mga sinanay na team ng espesyalista at mahusay na teknolohiya, kabilang ang mga classifier ng machine learning at teknolohiya ng hash matching, na gumagawa ng “hash,” o natatanging digital na fingerprint, para sa isang larawan o video para maikumpara ito sa mga hash ng kilalang CSAM. Kapag may nakita kaming CSAM, iuulat namin ito sa National Center for Missing and Exploited Children (NCMEC), na nakikipagtulungan sa mga ahensyang nagpapatupad ng batas sa iba't ibang panig ng mundo.

Pakikipagtulungan sa iba't ibang panig ng mundo

Pakikipagtulungan sa iba't ibang panig ng mundo


Nakikipagtulungan kami sa NCMEC at iba pang organisasyon sa iba't ibang panig ng mundo sa aming mga pagsisikap na labanan ang sekswal na pang-aabuso sa bata online. Bilang bahagi ng mga pagsisikap na ito, nagtataguyod kami ng matatatag na partnership sa mga NGO at koalisyon sa industriya para makatulong na palakihin ang aming magkasamang pag-unawa sa nagbabagong katangian ng sekswal na pang-aabuso at pananamantala sa bata.

Paano namin ito ginagawa?

Paglaban sa sekswal na pang-aabuso sa bata sa Search

Paglaban sa sekswal na pang-aabuso sa bata sa Search


Napapadali ng Google Search ang paghahanap ng impormasyon, pero hindi namin kailanman gustong magpakita ang Search ng content na ilegal o sekswal na nananamantala sa mga bata. Patakaran naming i-block ang mga resulta ng paghahanap na humahantong sa koleksyon ng imahe ng pang-aabusong sekswal sa kabataan o ang materyal na mukhang seskwal na nambibiktima, naglalagay sa panganib, o nananamantala sa mga bata. Palagi naming ina-update ang aming mga algorithm para labanan ang mga nagbabagong panganib na ito.

Naglalapat kami ng mga karagdagang proteksyon sa mga paghahanap na nauunawaan namin bilang paghahanap ng CSAM na content. Fini-filter namin ang mga tahasang sekswal na resulta kung mukhang naghahanap ng CSAM ang query sa paghahanap, at para sa mga query na naghahanap ng pang-nasa hustong gulang na tahasang content, hindi maglalabas ang Search ng koleksyon ng imahe na may mga bata, para putulin ang ugnayan sa pagitan ng mga bata at sekswal na content. Sa maraming bansa, ang mga user na naglalagay ng mga query na malinaw na nauugnay sa CSAM ay pinapakitaan ng kitang-kitang babala na ilegal ang koleksyon ng imahe ng pang-aabusong sekswal sa kabataan, kasama ng impormasyon kung paano iulat ang content na ito sa mga mapagkakatiwalaang organisasyon gaya ng Internet Watch Foundation sa UK, Canadian Centre for Child Protection, at Te Protejo sa Colombia. Kapag nagpapakita ng mga ganitong babala, mas maliit ang posibilidad na patuloy na maghanap ang mga user ng ganitong materyal.

Ang pagsisikap ng YouTube para labanan ang mga mapagsamantalang video at materyal

Ang pagsisikap ng YouTube para labanan ang mga mapagsamantalang video at materyal


Matagal na kaming may malilinaw na patakaran laban sa mga video, playlist, thumbnail, at komento sa YouTube na nagse-sexualize o nananamantala sa mga bata. Gumagamit kami ng mga machine learning system para kaagad na matukoy ang mga paglabag sa mga patakarang ito at may mga taong tagasuri kami sa iba't ibang panig ng mundo na mabilis na nag-aalis ng mga paglabag na natukoy ng aming mga system o na-flag ng mga user at aming mga trusted flagger.

Kahit na posibleng hindi labag ang ilang content na nagtatampok ng mga menor de edad sa aming mga patakaran, kinikilala naming posibleng may panganib ng online at offline na pananamantala para sa mga menor de edad. Ito ang dahilan kung bakit mas maingat kami kapag ipinapatupad ang mga patakarang ito. Nakakatulong ang aming mga machine learning system sa agarang pagtukoy ng mga video na posibleng maglagay sa mga menor de edad sa panganib at malawakan naming inilalapat ang aming mga proteksyon, gaya ng paghihigpit sa mga live na feature, pag-disable sa mga komento, at paglimita sa mga rekomendasyon sa video.

Ang aming transparency report sa CSAM

Ang aming Transparency Report sa CSAM


Noong 2021, inilunsad namin ang transparency report sa mga pagsisikap ng Google na labanan ang materyal na nagpapakita ng sekswal na pang-aabuso sa bata online, at idinetalye kung gaano karaming ulat ang ginawa namin sa NCMEC. Nagbibigay din ang ulat ng data tungkol sa aming mga pagsisikap sa YouTube, kung paano namin tinutukoy at inaalis sa Seach ang mga CSAM na resulta, at kung gaano karaming account ang na-disable dahil sa mga paglabag sa CSAM sa aming mga serbisyo.

Kasama rin sa transparency report ang impormasyon tungkol sa bilang ng mga hash ng CSAM na ibinabahagi namin sa NCMEC. Nakakatulong ang mga hash na ito para malawakang matukoy ng iba pang platform ang CSAM. Ang pag-aambag sa hash database ng NCMEC ay isa sa mga pinakamahalagang paraan para makatulong kami at ang iba pa sa industriya sa pagsisikap na labanan ang CSAM dahil nakakabawas ito sa muling pagkalat ng ganitong materyal at sa nauugnay na muling pagiging biktima ng mga batang inabuso.

Pag-uulat ng hindi naaangkop na gawi sa aming mga produkto

Pag-uulat ng hindi naaangkop na gawi sa aming mga produkto


Gusto naming protektahan ang mga batang gumagamit ng aming mga produkto para hindi nila maranasan ang paghahanda sa pamamagitan ng grooming at luring, sextortion, trafficking, at iba pang anyo ng sekswal na pananamantala sa bata. Bilang bahagi ng aming pagsisikap na gawing ligtas ang aming mga produkto para magamit ng mga bata, nagbibigay kami ng kapaki-pakinabang na impormasyon para tulungan ang mga user na iulat ang materyal na nagpapakita ng sekswal na pang-aabuso sa bata sa mga nauugnay na awtoridad.

Kung may hinala ang mga user na nanganib ang isang bata sa mga produkto ng Google gaya ng Gmail o Hangouts, puwede nila itong iulat gamit ang form na ito. Puwede ring i-flag ng mga user ang hindi naaangkop na content sa YouTube, at iulat ang pang-aabuso sa Google Meet sa pamamagitan ng Help Center at nang direkta sa produkto. Nagbibigay din kami ng impormasyon kung paano tugunan ang mga alalahanin tungkol sa pananakot at panliligalig, kasama ang impormasyon kung paano i-block ang mga user mula sa pakikipag-ugnayan sa isang bata. Para sa higit pang impormasyon sa aming mga patakaran sa kaligtasan ng bata, tingnan ang Community Guidelines at ang Google Safety Center.

Pagbuo at pagbabahagi ng mga tool para labanan ang sekswal na pang-aabuso sa bata

Ginagamit namin ang aming teknikal na kadalubhasaan at inobasyon para protektahan ang mga bata at suportahan ang iba na gawin din ito. Iniaalok namin ang aming mahusay na teknolohiya nang libre para sa mga kwalipikadong organisasyon para gawing mas mahusay, mas mabilis, at mas ligtas ang kanilang mga pagpapatakbo, at hinihikayat namin ang mga interesadong organisasyon na mag-apply para magamit ang aming mga tool sa kaligtasan ng bata.

Content Safety API

Maraming taon nang pinagsisikapan ng Google ang mga classifier ng machine learning para magbigyang-daan kami na maagap na tukuyin ang hindi pa nakikitang koleksyon ng imahe ng CSAM para masuri ito at, kung makumpirma bilang CSAM, alisin at iulat ito sa pinakamabilis na paraang posible. Pinapagana ng teknolohiyang ito ang Content Safety API, na nakakatulong sa mga organisasyon na uriin at isapriyoridad ang potensyal na mapang-abusong content para sa pagsusuri. Sa unang bahagi ng 2021, ginamit ng mga partner ang Content Safety API para uriin ang mahigit 6 na bilyong larawan, na nakatulong para matukoy nila ang may problemang content nang mas mabilis at mas tumpak para maiulat nila ito sa mga awtoridad.

CSAI Match

Noong 2014, bumuo at gumamit ang mga engineer sa YouTube ng teknolohiya para sa pag-tag at pag-aalis ng mga kilalang CSAM na video sa aming mga serbisyo. Ibinabahagi namin ang teknolohiyang ito sa iba sa pamamagitan ng CSAI Match, isang API na tumutulong na tukuyin ang mga re-upload ng dating natukoy na materyal na nagpapakita ng sekswal na pang-aabuso sa bata sa mga video. Ginagamit ng mga NGO at kumpanya ang CSAI Match para matulungan silang tukuyin ang mga tugma sa aming database ng kilalang mapang-abusong content para responsable silang makakilos alinsunod sa mga lokal na batas at regulasyon.

Mga Alyansa at Programa

Aktibong miyembro kami ng maraming koalisyon, gaya ng Technology Coalition, ICT Coalition, WeProtect Global Alliance, INHOPE, at Fair Play Alliance, na nagtitipon sa mga kumpanya at NGO para bumuo ng mga solusyong nag-aantala sa pagpapalitan ng CSAM online at pumipigil sa sekwal na pananamantala sa mga bata.

Magkakasama naming nag-aambag ang pananaliksik sa kaligtasan ng bata at nagbabahagi kami ng mga tool at kaalaman, gaya ng aming mga insight sa paggawa ng transparency report, pag-detect sa produkto, at mga proseso ng pagpapatakbo.

Sa pakikipagtulungan sa

Ad Grants sa pamamagitan ng Google.org

Ad Grants sa pamamagitan ng Google.org


Nag-aalok ang Google.org ng mga grant sa mga organisasyong nangunguna sa paglaban sa sekswal na pang-aabuso at pananamantala sa bata, gaya ng INHOPE at ECPAT International. Bukod pa rito, mula 2003, nagbigay ang Google.org ng humigit-kumulang $90 milyong libreng badyet sa pag-advertise sa mga NGO at kawanggawa na nagpapatakbo ng mga hotline sa pag-uulat ng sekswal na pang-aabuso sa bata, para tulungan silang maabot ang mga taong pinakanangangailangan ng suporta.

Programang Google Fellow

Programang Google Fellow


Nag-aambag namin ang mga teknikal na fellowship at organisasyong nakatuon sa paglaban sa sekswal na pang-aabuso sa bata gaya ng NCMEC at Thorn. Bukod pa rito, nagbibigay ang Google ng pagsasanay sa mga opisyal ng pagpapatupad ng batas na nagsisiyasat ng mga online na krimen laban sa mga bata sa pamamagitan ng mga forum gaya ng Crimes Against Children Conference at National Law Enforcement Training on Child Exploitation.