इंटरनेट पर बच्चों के यौन शोषण और उत्पीड़न को रोकने के लिए हम काफ़ी मेहनत करते हैं. साथ ही, हम अपने प्लैटफ़ॉर्म पर ऐसे कॉन्टेंट को रोकने, उसका पता लगाने, उसे हटाने, और उसकी शिकायत करने के लिए, अपने मालिकाना हक वाली टेक्नोलॉजी का इस्तेमाल करते हैं.
हम कई कार्यक्रमों के लिए गैर सरकारी संगठनों (एनजीओ) और इंडस्ट्री के साथ मिलकर काम करते हैं और उनके साथ अपनी तकनीकी जानकारी शेयर करते हैं. साथ ही, हम सीएसएएम को रोकने में संगठनों की मदद के लिए, टूल बनाते और शेयर करते हैं.
बच्चों की सुरक्षा से जुड़े हमारे टूलकिट के बारे में यहां ज़्यादा जानें.
अपने प्लैटफ़ॉर्म और सेवाओं पर यौन शोषण को रोकना
Google शुरू से ही अपनी सेवाओं पर, बच्चों का यौन शोषण और उत्पीड़न रोकने की जिम्मेदारी निभाता रहा है. हम इस काम में ज़रूरी संसाधन, टेक्नोलॉजी, कर्मचारी, और वक्त लगाते हैं. इससे, बच्चों के यौन शोषण से जुड़े कॉन्टेंट और व्यवहार को रोकने, उसका पता लगाने, उसे हटाने, और उसके ख़िलाफ़ शिकायत करने में मदद मिलती है.
हम क्या कर रहे हैं?
गलत इस्तेमाल रोकना
हम पक्का करते हैं कि हमारे प्रॉडक्ट, बच्चों के इस्तेमाल के लिए सुरक्षित हों. ऐसा करके, हम बच्चों का शोषण होने से रोकते हैं. बच्चों के शोषण के बढ़ते हुए खतरों को समझने और एआई से बनाए गए सीएसएएम जैसे नई तरह के आपत्तिजनक कॉन्टेंट के बारे में जानने के लिए, हम अपने पास उपलब्ध अहम जानकारी का इस्तेमाल करते हैं. साथ ही, हम यौन अपराध के ट्रेंड में होने वाले बदलाव को समझने के लिए रिसर्च भी करते हैं. हम गैर-कानूनी सीएसएएम ही नहीं, बल्कि ऐसे हर कॉन्टेंट पर कार्रवाई करते हैं जो बच्चों के यौन शोषण को बढ़ावा देता है या उन्हें खतरे में डालता है.
कॉन्टेंट का पता लगाना और उसकी शिकायत करना
हम ट्रेन किए गए विशेषज्ञ की टीमों और बेहतरीन टेक्नोलॉजी की मदद से, सीएसएएम को पहचानकर उसकी शिकायत करते हैं. इनमें, मशीन लर्निंग के ज़रिए कॉन्टेंट की कैटगरी तय करने वाली और हैश मैच करने वाली टेक्नोलॉजी शामिल हैं. हैश मैच करने की टेक्नोलॉजी, किसी इमेज या वीडियो के लिए एक “हैश” या यूनीक डिजिटल फ़िंगरप्रिंट बनाती है, ताकि पहले से पहचाने जा चुके सीएसएएम के हैश के साथ उनकी तुलना की जा सके. सीएसएएम मिलने पर, हम नैशनल सेंटर फ़ॉर मिसिंग ऐंड एक्सप्लॉइटेड चिल्ड्रन (एनसीएमईसी) से शिकायत करते हैं. एनसीएमईसी, बच्चों की सुरक्षा के लिए दुनिया भर की कानून प्रवर्तन एजेंसियों के साथ मिलकर काम करता है.
दुनिया भर में मिलकर काम करना
इंटरनेट पर बच्चों का यौन शोषण दिखाने वाला कॉन्टेंट कम करने की दिशा में, हम एनसीएमईसी और दुनिया भर में मौजूद दूसरे संगठनों के साथ मिलकर काम करते हैं. साथ ही, हम कई एनजीओ और उद्योग संगठनों के साथ मज़बूत पार्टनरशिप करते हैं. इससे हमें आगे बढ़ने के साथ-साथ, बच्चों का यौन शोषण और उनके साथ होने वाले बुरे बर्ताव के ट्रेंड में हो रहे बदलाव को बेहतर ढंग से समझने में मदद मिलती है.
हम यह कैसे कर रहे हैं?
हम बच्चों का यौन शोषण दिखाने वाले कॉन्टेंट, यौन शोषण से पहले बच्चों को बहलाने-फुसलाने के मकसद से बनाया गया कॉन्टेंट, सेक्सटॉर्शन (ऐसा यौन शोषण जिसमें पीड़ित से जुड़ा सेक्शुअल कॉन्टेंट शेयर करने की धमकी देकर उसके ऊपर किसी तरह का दबाव बनाया जाता है), और ऐसे ही अन्य कॉन्टेंट के ख़िलाफ़ कार्रवाई करते हैं. इसके लिए, हम अलग-अलग तरह की टेक्नोलॉजी और मानव संसाधनों का इस्तेमाल करते हैं. हमारे काम करने के तरीके के बारे में विस्तार से जानें. इसके अलावा, नीचे आपको इस बारे में जानकारी मिलेगी कि हमारे अलग-अलग प्रॉडक्ट में, इस तरह के यौन शोषण को रोकने के लिए क्या-क्या कदम उठाए जा सकते हैं.
Search पर, बच्चों का यौन शोषण दिखाने वाले कॉन्टेंट को रोकना
Google Search, जानकारी ढूंढना आसान बनाता है, लेकिन हम यह नहीं चाहते कि Search ऐसा कॉन्टेंट दिखाए जो गैरकानूनी हो या जिसकी वजह से बच्चों का यौन शोषण हो. अपनी नीति के मुताबिक, हम खोज के ऐसे नतीजे ब्लॉक कर देते हैं जिनमें बच्चों का यौन शोषण दिखाने वाली तस्वीरें और/या वीडियो हों या फिर ऐसा कॉन्टेंट शामिल हो जिसमें इस तरह की गतिविधियां दिखाई गई हों: बच्चों का यौन उत्पीड़न करना, उनके लिए जोखिम वाली स्थिति पैदा करना या उनका शोषण करना. इन बढ़ते हुए खतरों को रोकने के लिए, हम अपने एल्गोरिदम को लगातार अपडेट कर रहे हैं.
उन खोजों पर हम और ज़्यादा सुरक्षा लागू करते हैं जिनके बारे में हमें लगता है कि वे सीएसएएम कॉन्टेंट ढूंढने के मकसद से की गई हैं. अगर हमें लगता है कि खोज क्वेरी सीएसएएम या वयस्कों का अश्लील कॉन्टेंट ढूंढ रही है, तो हम अश्लील यौन कॉन्टेंट वाले नतीजे फ़िल्टर कर देते हैं. ऐसे में, Search वे तस्वीरें नहीं दिखाता जिनमें बच्चे हों. इस तरह, बच्चों और सेक्शुअल कॉन्टेंट के बीच का संबंध तोड़ने में सहायता मिलती है. कई देशों में, सीएसएएम के बारे में सीधे क्वेरी करने वाले उपयोगकर्ताओं को एक अहम चेतावनी दिखती है. इसमें यह बताया जाता है कि बच्चों का यौन शोषण दिखाने वाली तस्वीरें और/या वीडियो गैर-कानूनी होते हैं. इसके अलावा, इसमें यह भी बताया जाता है कि कनेडियन सेंटर फ़ॉर चाइल्ड प्रोटेक्शन, यूनाइटेड किंगडम के इंटरनेट वॉच फ़ाउंडेशन, और कोलंबिया के Te Protejo जैसे भरोसेमंद संगठनों में इस तरह के कॉन्टेंट की शिकायत कैसे की जाए. इन चेतावनियों को दिखाने से, इस बात की आशंका कम हो जाती है कि उपयोगकर्ता ऐसा कॉन्टेंट ढूंढना जारी रखेंगे.
इसी विषय से जुड़े कुछ लिंक
शोषण दिखाने वाले वीडियो और अन्य कॉन्टेंट को रोकने के लिए YouTube की तैयारी
YouTube पर पहले से ही ऐसे वीडियो, प्लेलिस्ट, थंबनेल, और टिप्पणियों के ख़िलाफ़ नीतियां मौजूद हैं जिनमें अश्लील या बच्चों का शोषण दिखाने वाला कॉन्टेंट शामिल होता है. हम इन नीतियों के उल्लंघन का पता लगाने के लिए, मशीन लर्निंग सिस्टम का इस्तेमाल करते हैं. साथ ही, कॉन्टेंट की मैन्युअल तरीके से समीक्षा करने के लिए, हमारे पास समीक्षकों की ग्लोबल टीम मौजूद है. ये समीक्षक, नीतियों का उल्लंघन करने वाले उन वीडियो को तुरंत हटा देते हैं जिनकी पहचान हमारे सिस्टम ने की है या जिनके बारे में लोगों और भरोसेमंद फ़्लैगर ने शिकायत की है.
ऐसा हो सकता है कि नाबालिगों को दिखाने वाला कुछ कॉन्टेंट हमारी नीतियों का उल्लंघन न करता हो. हालांकि, हमारा मानना है कि नाबालिगों के लिए ऑनलाइन या ऑफ़लाइन, दोनों जगह शोषण का खतरा हो सकता है. इसलिए, इन नीतियों को लागू करते समय हम बेहद सावधान रहते हैं. हमारे मशीन लर्निंग सिस्टम, ऐसे कॉन्टेंट का पता लगाने में मदद करते हैं जिनसे नाबालिगों को खतरा हो सकता है. साथ ही, ये सिस्टम बड़े पैमाने पर हमारी सुरक्षा नीतियां लागू करते हैं. जैसे, लाइव स्ट्रीमिंग की सुविधाओं पर पाबंदी लगाना, टिप्पणी करने की सुविधा को बंद करना, और वीडियो के सुझावों को सीमित करना.
इसी विषय से जुड़े कुछ लिंक
सीएसएएम से जुड़ी हमारी पारदर्शिता रिपोर्ट
साल 2021 में, हमने इंटरनेट पर बच्चों का यौन शोषण दिखाने वाले कॉन्टेंट को रोकने से जुड़ी Google की कोशिशों के तहत एक पारदर्शिता रिपोर्ट लॉन्च की. इस रिपोर्ट में यह बताया गया है कि हमने एनसीएमईसी को कितने मामलों की शिकायत की है. रिपोर्ट में यह डेटा भी है कि YouTube पर हमने इस बारे में क्या कदम उठाए हैं और हम किस तरह Search पर सीएसएएम से जुड़े नतीजे पहचानकर उन्हें हटाते हैं. इस रिपोर्ट में यह जानकारी भी दी गई है कि सीएसएएम से जुड़ी नीतियों का उल्लंघन करने की वजह से, हमारी सभी सेवाओं पर कितने खाते बंद किए गए हैं.
इस पारदर्शिता रिपोर्ट में सीएसएएम से जुड़े उन हैश की संख्या भी बताई गई है जो हमने एनसीएमईसी के साथ शेयर किए हैं. इन हैश की मदद से दूसरे प्लैटफ़ॉर्म बड़ी संख्या में सीएसएएम को पहचान सकते हैं. एनसीएमईसी के हैश डेटाबेस में योगदान करना हमारे और इस उद्योग के दूसरे भागीदारों के लिए, सीएसएएम को रोकने का एक अहम तरीका है. इससे ऐसे कॉन्टेंट का फिर से इस्तेमाल होने और जिन बच्चों का शोषण हुआ है उनका दोबारा शोषण होने की आशंका कम हो जाती है.
इसी विषय से जुड़े कुछ लिंक
हमारे प्रॉडक्ट का इस्तेमाल करते समय, आपत्तिजनक व्यवहार की शिकायत करना
हम चाहते हैं कि हमारे प्रॉडक्ट इस्तेमाल करते समय बच्चों को ऐसी चीज़ों का सामना न करना पड़े जो उनके लिए सही नहीं हैं. जैसे, यौन शोषण से पहले उन्हें बहलाना-फुसलाना, सेक्सटॉर्शन, मानव तस्करी, और यौन शोषण के दूसरे तरीके. बच्चे हमारे प्रॉडक्ट का इस्तेमाल सुरक्षित तरीके से कर पाएं, इसके लिए हम उपयोगकर्ताओं को काम की जानकारी उपलब्ध कराते हैं. इससे उन्हें बच्चों का यौन शोषण दिखाने वाले कॉन्टेंट की शिकायत सही संगठनों या अधिकारियों से करने में मदद मिलती है.
अगर उपयोगकर्ताओं को लगता है कि Gmail या Hangouts जैसे Google प्रॉडक्ट की वजह से किसी बच्चे को कोई खतरा है, तो वे इस फ़ॉर्म के ज़रिए इसकी शिकायत कर सकते हैं. उपयोगकर्ता YouTube पर भी आपत्तिजनक कॉन्टेंट को फ़्लैग कर सकते हैं. साथ ही, वे Google Meet पर यौन शोषण की शिकायत, सीधे प्रॉडक्ट में या सहायता केंद्र पर जाकर कर सकते हैं. हम, धमकाने और उत्पीड़न से जुड़ी समस्याओं से निपटने में काम आने वाली जानकारी भी उपलब्ध कराते हैं. इसमें यह जानकारी भी शामिल है कि किसी उपयोगकर्ता को किसी बच्चे से संपर्क करने से कैसे रोका जाए. बच्चों की सुरक्षा से जुड़ी हमारी नीतियों के बारे में ज़्यादा जानने के लिए, YouTube के कम्यूनिटी दिशा-निर्देश पढ़ें और Google सुरक्षा केंद्र पर जाएं.
इसी विषय से जुड़े कुछ लिंक
साझेदार और कार्यक्रम
हम टेक्नोलॉजी कोअलिशन, आइसीटी कोअलिशन, वीप्रोटेक्ट ग्लोबल अलायंस, इनहोप, फ़ेयर प्ले अलायंस जैसे कई गठबंधनों के सक्रिय सदस्य हैं. इन गठबंधनों के तहत कई कंपनियां और गैर-सरकारी संगठन साथ मिलकर, सीएसएएम के ऑनलाइन लेन-देन और बच्चों के यौन उत्पीड़न पर लगाम लगाने के लिए काम करते हैं.
हम मिलकर बच्चों की सुरक्षा से जुड़े रिसर्च के लिए फ़ंड उपलब्ध कराते हैं और आपस में टूल और जानकारी शेयर करते हैं. इसमें, Transparency Report, इन-प्रॉडक्ट डिटेक्शन, और ऑपरेशनल प्रोसेस के लिए अहम जानकारी देना शामिल है.
Google.org के Ad Grants
Google.org, बच्चों के यौन शोषण और उत्पीड़न के ख़िलाफ़ बेहतरीन काम कर रहे संगठनों को अनुदान देता है, जैसे कि इनहोप और ईसीपीएटी इंटरनैशनल. इसके अलावा, 2003 से अब तक Google.org ने गैर-सरकारी संगठनों और चैरिटी संस्थाओं के विज्ञापनों को मुफ़्त में दिखाने के लिए बजट के तौर पर नौ करोड़ डॉलर दिए हैं. इस रकम की मदद से, बच्चों के यौन शोषण की शिकायत करने के लिए हॉटलाइन चलाने वाले ये गैर-सरकारी संगठन और चैरिटी संस्थाएं ज़रूरतमंदों तक पहुंच पाती हैं.
Google Fellow कार्यक्रम
हम बच्चों के यौन शोषण के ख़िलाफ़ काम करने वाले संगठनों को तकनीकी फ़ेलोशिप के लिए फ़ंड भी मुहैया कराते हैं. इनमें एनसीएमईसी और थॉर्न जैसे संगठन शामिल हैं. इसके अलावा, बच्चों के ख़िलाफ़ इंटरनेट पर होने वाले अपराधों की जांच करने वाले अधिकारियों को Google प्रशिक्षण भी देता है. यह प्रशिक्षण क्राइम्स अगेन्स्ट चिल्ड्रेन कॉन्फ़्रेंस और नैशनल लॉ एन्फ़ोर्समेंट ट्रेनिंग ऑन चाइल्ड एक्सप्लॉयटेशन जैसे फ़ोरम के ज़रिए दिया जाता है.