Kami terus memaksimalkan upaya dalam memberantas pelecehan seksual dan eksploitasi terhadap anak-anak di ruang online, serta menggunakan teknologi kami yang telah dipatenkan, guna mencegah, mendeteksi, menghapus, dan melaporkan pelanggaran di platform kami.

Kami berpartner dengan LSM dan industri dalam sejumlah program untuk membagikan keahlian teknis kami, serta mengembangkan dan membagikan berbagai alat guna membantu beragam organisasi memberantas materi pelecehan seksual terhadap anak-anak (CSAM).

Pelajari lebih lanjut tentang toolkit keselamatan anak di sini.

Melawan pelecehan di platform dan layanan kami sendiri

Sejak awal, Google telah berkomitmen untuk melawan eksploitasi dan pelecehan seksual terhadap anak-anak di layanan kami. Kami mengerahkan sumber daya teknologi, manusia, dan waktu dalam jumlah yang signifikan untuk mencegah, mendeteksi, menghapus, serta melaporkan perilaku dan konten eksploitasi seksual terhadap anak-anak.

Upaya apa yang kami lakukan?

Mencegah tindakan pelecehan

Mencegah tindakan pelecehan


Kami bertujuan mencegah terjadinya tindakan pelecehan dengan memastikan bahwa produk kami aman digunakan oleh anak-anak. Kami juga menggunakan semua data dan penelitian yang tersedia untuk memahami ancaman yang semakin berkembang dan berbagai bentuk pelanggaran baru. Kami mengambil tindakan tidak hanya pada CSAM yang memang ilegal, tetapi juga berbagai konten lain yang mempromosikan pelecehan seksual terhadap anak-anak dan dapat membahayakan anak-anak.

Mendeteksi dan melaporkan

Mendeteksi dan melaporkan


Kami mengidentifikasi dan melaporkan CSAM menggunakan tim spesialis terlatih dan teknologi canggih seperti pengklasifikasi machine learning. Selain itu, kami juga menggunakan teknologi pencocokan hash, yang menghasilkan "hash" atau sidik jari digital unik untuk gambar atau video sehingga dapat dibandingkan dengan hash dari CSAM yang telah diidentifikasi. Ketika menemukan CSAM, kami melaporkannya ke National Center for Missing and Exploited Children (NCMEC), yang bekerja sama dengan lembaga penegak hukum di seluruh dunia.

Melakukan kolaborasi secara global

Melakukan kolaborasi secara global


Kami berkolaborasi dengan NCMEC dan organisasi lainnya secara global dalam menjalankan upaya kami melawan pelecehan seksual terhadap anak-anak di ruang online. Sebagai bagian dari upaya ini, kami membangun kemitraan yang kuat dengan LSM dan koalisi industri untuk membantu menumbuhkan dan berkontribusi pada pemahaman bersama tentang tindak pelecehan dan eksploitasi seksual terhadap anak-anak yang terus berkembang.

Bagaimana cara kami melakukannya?

Melawan pelecehan seksual terhadap anak-anak di Penelusuran

Melawan pelecehan seksual terhadap anak-anak di Penelusuran


Google Penelusuran menjadikan informasi mudah ditemukan, tetapi kami tidak ingin Penelusuran menampilkan konten ilegal atau mengeksploitasi anak-anak secara seksual. Adalah kebijakan kami untuk memblokir hasil penelusuran yang mengarah ke gambar pelecehan seksual terhadap anak-anak atau materi yang secara seksual mengorbankan, membahayakan, atau mengeksploitasi anak-anak. Kami terus memperbarui algoritme kami untuk melawan ancaman yang semakin berkembang ini.

Kami menerapkan perlindungan ekstra untuk penelusuran yang terdeteksi tengah mencari konten CSAM. Kami memfilter hasil yang menampilkan konten seksual vulgar jika kueri penelusuran tampaknya mencari CSAM. Untuk kueri yang mencari konten dewasa vulgar, Penelusuran tidak akan menampilkan gambar yang menyertakan anak-anak, untuk memutus pengaitan antara anak-anak dan konten seksual. Di banyak negara, saat pengguna memasukkan kueri yang secara jelas terkait CSAM, akan muncul peringatan bahwa gambar pelecehan seksual terhadap anak bersifat ilegal. Peringatan ini diikuti dengan informasi tentang cara melaporkan konten ini ke organisasi tepercaya seperti Internet Watch Foundation di Inggris, Canadian Centre for Child Protection di Kanada, dan Te Protejo di Kolombia. Dengan ditampilkannya peringatan ini, semakin kecil kemungkinan bagi pengguna untuk melanjutkan penelusuran materi tersebut.

Upaya YouTube untuk melawan video dan materi eksploitatif

Upaya YouTube untuk melawan video dan materi eksploitatif


Kami selalu memiliki kebijakan yang jelas atas video, playlist, thumbnail, dan komentar di YouTube yang mengeksploitasi atau menjadikan anak-anak sebagai objek seksual. Kami menggunakan sistem machine learning untuk secara proaktif mendeteksi pelanggaran kebijakan ini dan memiliki peninjau manual di seluruh dunia yang akan segera menghapus konten yang mengandung materi pelecehan setelah terdeteksi oleh sistem kami atau dilaporkan oleh pengguna dan Pelapor Tepercaya.

Meskipun beberapa konten yang menampilkan anak di bawah umur mungkin tidak melanggar kebijakan, kami menyadari anak di bawah umur berisiko mengalami eksploitasi secara online maupun offline. Karena itulah kami menggunakan pendekatan ekstra hati-hati saat menegakkan kebijakan ini. Dengan bantuan sistem machine learning, kami dapat secara proaktif mengidentifikasi video yang mungkin berisiko membahayakan anak di bawah umur dan menerapkan perlindungan secara lebih luas, seperti membatasi fitur live, menonaktifkan komentar, dan membatasi rekomendasi video.

Laporan Transparansi CSAM kami

Laporan Transparansi CSAM kami


Pada tahun 2021, kami meluncurkan Laporan Transparansi terkait upaya Google dalam melawan materi pelecehan seksual terhadap anak-anak secara online, dengan detail terkait jumlah laporan yang telah kami buat untuk NCMEC. Laporan ini juga memberikan data seputar upaya yang kami lakukan di YouTube, cara kami mendeteksi dan menghapus konten CSAM dari Penelusuran, dan jumlah akun yang dinonaktifkan di seluruh layanan kami karena pelanggaran terkait CSAM.

Laporan Transparansi tersebut juga menyertakan informasi mengenai jumlah hash CSAM yang kami bagikan ke NCMEC. Hash ini membantu platform lainnya mengidentifikasi CSAM dalam skala besar. Untuk membantu melawan CSAM, berkontribusi pada database hash NCMEC adalah salah satu cara penting yang dapat diupayakan oleh kami dan pihak lain di industri ini. Upaya ini membantu mengurangi peredaran ulang CSAM agar anak-anak yang telah mengalami pelecehan tidak menjadi korban kembali.

Melaporkan tindakan tidak pantas di produk kami

Melaporkan tindakan tidak pantas di produk kami


Kami ingin melindungi anak-anak yang menggunakan produk kami dari pembujuk-rayuan, pemerasan seksual, perdagangan, dan bentuk eksploitasi seksual anak lainnya. Sebagai bagian dari upaya kami untuk membuat produk kami aman digunakan oleh anak-anak, kami memberikan informasi yang berguna untuk membantu pengguna melaporkan materi pelecehan seksual terhadap anak-anak kepada otoritas terkait.

Jika pengguna memiliki kecurigaan bahwa ada anak yang telah terancam bahaya di produk Google seperti Gmail atau Hangouts, pengguna dapat melaporkannya menggunakan formulir ini. Pengguna juga dapat menandai konten yang tidak pantas di YouTube dan melaporkan tindakan pelecehan di Google Meet melalui Pusat Bantuan dan di produk secara langsung. Kami juga memberikan informasi tentang cara menangani kekhawatiran terkait perundungan dan pelecehan, termasuk informasi tentang cara memblokir pengguna agar tidak dapat menghubungi anak. Untuk mengetahui informasi lebih lanjut tentang kebijakan kami terkait keselamatan anak, buka Pedoman Komunitas YouTube dan Pusat Keamanan Google.

Mengembangkan dan membagikan berbagai alat untuk memberantas pelecehan seksual terhadap anak-anak

Kami menggunakan keahlian teknis dan inovasi kami untuk melindungi anak-anak dan mendukung pihak lain untuk melakukan hal yang sama. Kami menawarkan teknologi canggih tanpa biaya kepada organisasi yang memenuhi syarat agar dapat menjalankan kegiatan operasional dengan lebih baik, cepat, dan aman. Kami juga mendorong organisasi yang tertarik untuk mendaftar agar dapat menggunakan alat keselamatan anak dari kami.

Content Safety API

Selama bertahun-tahun, Google telah mengembangkan pengklasifikasi machine learning untuk membantu kami secara proaktif mengidentifikasi materi pelecehan terhadap anak-anak (CSAM) yang terus bermunculan. Dengan begitu, konten semacam itu dapat ditinjau dan dihapus serta dilaporkan secepat mungkin jika terbukti sebagai CSAM. Teknologi ini mendukung Content Safety API, yang membantu berbagai organisasi mengklasifikasikan dan memprioritaskan tindakan peninjauan untuk konten yang berpotensi mengandung materi pelecehan. Pada pertengahan tahun 2021, partner kami menggunakan Content Safety API untuk mengklasifikasikan lebih dari 6 miliar gambar. Karenanya, mereka dapat mengidentifikasi konten yang bermasalah dengan lebih cepat dan akurat sehingga dapat dilaporkan ke pihak yang berwenang.

CSAI Match

Pada tahun 2014, engineer YouTube mengembangkan dan menggunakan teknologi untuk memberi tag pada video yang dikenali sebagai CSAM dan menghapusnya dari layanan kami. Kami membagikan teknologi ini ke berbagai pihak melalui CSAI Match, yakni API yang membantu mengidentifikasi konten video yang di-upload ulang dan telah diketahui sebagai materi pelecehan terhadap anak-anak. CSAI Match digunakan oleh LSM dan perusahaan untuk membantu mengidentifikasi materi pelecehan berdasarkan kecocokannya dengan database kami terkait konten yang mengandung pelecehan. Dengan begitu, mereka dapat menindaklanjutinya secara bertanggung jawab sesuai dengan hukum dan peraturan setempat yang berlaku.

Aliansi & Program

Kami adalah anggota aktif dari beberapa koalisi, seperti Technology Coalition, ICT Coalition, WeProtect Global Alliance, INHOPE, dan Fair Play Alliance, yang menyatukan perusahaan dan LSM untuk mengembangkan solusi yang dapat menghentikan distribusi CSAM secara online dan mencegah eksploitasi seksual terhadap anak-anak.

Bersama-sama, kami mendanai riset terkait keselamatan anak serta membagikan alat dan pengetahuan, seperti analisis kami mengenai laporan transparansi, deteksi dalam produk, dan proses operasional.

Berpartner dengan

Ad Grants melalui Google.org

Ad Grants melalui Google.org


Google.org menawarkan hibah bagi organisasi yang memimpin upaya perlawanan terhadap eksploitasi dan pelecehan seksual terhadap anak-anak, seperti INHOPE dan ECPAT International. Selain itu, sejak tahun 2003, Google.org telah memberikan dana sekitar $90 juta dalam bentuk anggaran iklan gratis kepada LSM dan badan amal yang menjalankan hotline pelaporan pelecehan seksual terhadap anak-anak. Dengan dana ini, diharapkan mereka dapat menjangkau korban yang paling membutuhkan bantuan.

Program Google Fellow

Program Google Fellow


Kami mendanai beasiswa teknis di organisasi-organisasi yang mendedikasikan diri melawan pelecehan seksual terhadap anak-anak, seperti NCMEC dan Thorn. Selain itu, Google memberikan pelatihan kepada pejabat penegak hukum yang menginvestigasi kejahatan online terhadap anak-anak melalui forum seperti Crimes Against Children National Conference dan National Law Enforcement Training on Child Exploitation.