इंटरनेट पर बच्चों के यौन शोषण और उत्पीड़न को रोकने के लिए हम काफ़ी मेहनत करते हैं. साथ ही, हम अपने प्लैटफ़ॉर्म पर ऐसे कॉन्टेंट को रोकने, उसका पता लगाने, उसे हटाने, और उसकी शिकायत करने के लिए, अपने मालिकाना हक वाली टेक्नोलॉजी का इस्तेमाल करते हैं.

हम कई कार्यक्रमों के लिए गैर सरकारी संगठनों (एनजीओ) और इंडस्ट्री के साथ मिलकर काम करते हैं और उनके साथ अपनी तकनीकी जानकारी शेयर करते हैं. साथ ही, हम सीएसएएम को रोकने में संगठनों की मदद के लिए, टूल बनाते और शेयर करते हैं.

बच्चों की सुरक्षा से जुड़े हमारे टूलकिट के बारे में यहां ज़्यादा जानें.

अपने प्लैटफ़ॉर्म और सेवाओं पर यौन शोषण को रोकना

Google शुरू से ही अपनी सेवाओं पर, बच्चों का यौन शोषण और उत्पीड़न रोकने की जिम्मेदारी निभाता रहा है. हम इस काम में ज़रूरी संसाधन, टेक्नोलॉजी, कर्मचारी, और वक्त लगाते हैं. इससे, बच्चों के यौन शोषण से जुड़े कॉन्टेंट और व्यवहार को रोकने, उसका पता लगाने, उसे हटाने, और उसके ख़िलाफ़ शिकायत करने में मदद मिलती है.

हम क्या कर रहे हैं?

यौन शोषण रोकना

यौन शोषण रोकना


यह पक्का करके कि हमारे प्रॉडक्ट बच्चों के इस्तेमाल के लिए ठीक हैं, हम शोषण होने से रोकते हैं. हम उपलब्ध अहम जानकारी और रिसर्च का इस्तेमाल करके, बढ़ते खतरों और नई तरह के आपत्तिजनक कॉन्टेंट को समझने की कोशिश करते हैं. हम सिर्फ़ गैरकानूनी सीएसएएम ही नहीं, बल्कि ऐसे सारे कॉन्टेंट पर कार्रवाई करते हैं जो बच्चों के यौन शोषण को बढ़ावा देता हो या उन्हें खतरे में डालता हो.

पता लगाना और रिपोर्ट करना

पता लगाना और रिपोर्ट करना


हम ट्रेनिंग हासिल कर चुके विशेषज्ञों की टीम और सबसे बढ़िया टेक्नोलॉजी की मदद से सीएसएएम की पहचान करते हैं और उन्हें रिपोर्ट करते हैं. इन बेहतरीन टेक्नोलॉजी में मशीन लर्निंग से डेटा की कैटगरी तय करने और हैश मैच करने की टेक्नोलॉजी शामिल हैं. हैश मैच करने की टेक्नोलॉजी, किसी इमेज या वीडियो के लिए कोई "हैश" या यूनीक डिजिटल फ़िंगरप्रिंट बनाती है, ताकि पहले से पहचाने जा चुके सीएसएएम के हैश के साथ उसका मिलान किया जा सके. जब हमें सीएसएएम मिलता है, तो हम उसे नैशनल सेंटर फ़ॉर मिसिंग ऐंड एक्सप्लॉइटेड चिल्ड्रेन (एनसीएमईसी) को रिपोर्ट कर देते हैं. एनसीएमईसी बच्चों की सुरक्षा के लिए दुनिया भर में मौजूद कानून प्रवर्तन एजेंसियों के साथ मिलकर काम करता है.

दुनिया भर में मिलकर काम करना

दुनिया भर में मिलकर काम करना


इंटरनेट पर बच्चों के यौन शोषण से निपटने के लिए, हम एनसीएमईसी और दुनिया भर में मौजूद दूसरे संगठनों के साथ मिलकर काम करते हैं. इस काम के दौरान, हम कई एनजीओ और उद्योग संगठनों के साथ बेहद अच्छी साझेदारियां बनाते हैं. इससे, हम सभी को आगे बढ़ने में मदद मिलती है और हम बच्चों के यौन शोषण के बदलते चेहरे को बेहतर ढंग से समझ पाते हैं.

हम यह कैसे कर रहे हैं?

Search पर बच्चों के यौन शोषण को रोकना

Search पर बच्चों के यौन शोषण को रोकना


Google Search, जानकारी ढूंढना आसान बनाता है, लेकिन हम यह नहीं चाहते कि Search ऐसा कॉन्टेंट दिखाए जो गैरकानूनी हो या जिसकी वजह से बच्चों का यौन शोषण हो. अपनी नीति के मुताबिक, हम खोज के ऐसे नतीजे ब्लॉक कर देते हैं जिनमें बच्चों का यौन शोषण दिखाने वाली तस्वीरें हों या ऐसा कॉन्टेंट शामिल हो जो बच्चों का यौन रूप से उत्पीड़न कर सकता हो, उन्हें खतरे में डाल सकता हो या उनका शोषण कर सकता हो. हम इनके बढ़ते हुए खतरे से निपटने के लिए, लगातार अपने एल्गोरिदम अपडेट कर रहे हैं.

उन खोजों पर हम और ज़्यादा सुरक्षा लागू करते हैं जिनके बारे में हमें लगता है कि वे सीएसएएम कॉन्टेंट ढूंढने के मकसद से की गई हैं. अगर हमें लगता है कि खोज क्वेरी सीएसएएम या वयस्कों का अश्लील कॉन्टेंट ढूंढ रही है, तो हम अश्लील यौन कॉन्टेंट वाले नतीजे फ़िल्टर कर देते हैं. ऐसे में, Search वे तस्वीरें नहीं दिखाता जिनमें बच्चे हों. इस तरह, बच्चों और सेक्शुअल कॉन्टेंट के बीच का संबंध तोड़ने में सहायता मिलती है. कई देशों में, सीएसएएम के बारे में सीधे क्वेरी करने वाले उपयोगकर्ताओं को एक अहम चेतावनी दिखती है, जो यह बताती है कि बच्चों का यौन शोषण दिखाने वाली तस्वीरें गैरकानूनी होती हैं. इसके अलावा, इसमें यह भी बताया जाता है कि कनैडियन सेंटर फ़ॉर चाइल्ड प्रोटेक्शन, यूनाइटेड किंगडम के इंटरनेट वॉच फ़ाउंडेशन, और कोलंबिया के Te Protejo जैसे भरोसेमंद संगठनों को इस तरह के कॉन्टेंट की जानकारी कैसे दी जाए. इन चेतावनियों को दिखाने से, इस बात की आशंका कम हो जाती है कि उपयोगकर्ता ऐसा कॉन्टेंट ढूंढना जारी रखेंगे.

शोषण करने वाले वीडियो और कॉन्टेंट से निपटने की YouTube की तैयारी

शोषण करने वाले वीडियो और कॉन्टेंट से निपटने की YouTube की तैयारी


YouTube पर, बच्चों से जुड़े अश्लील या उनका यौन शोषण करने वाले वीडियो, प्लेलिस्ट, थंबनेल, और टिप्पणियों के बारे में हमारी नीतियां हमेशा साफ़ रही हैं. हम मशीन लर्निंग सिस्टम का इस्तेमाल करके, खुद से इन नीतियों के उल्लंघन का पता लगाते हैं. साथ ही, इस तरह के जिन वीडियो को हमारे सिस्टम पहचान जाते हैं या हमारे भरोसेमंद फ़्लैगर और उपयोगकर्ता फ़्लैग करते हैं उन्हें दुनिया भर में मौजूद हमारे समीक्षा करने वाले व्यक्ति फटाफट हटा देते हैं.

भले ही, नाबालिगों को दिखाने वाले कुछ वीडियो हमारी नीतियों का उल्लंघन न करते हों, लेकिन हम मानते हैं कि नाबालिगों के लिए ऑनलाइन या ऑफ़लाइन, दोनों जगह शोषण का खतरा ज़्यादा हो सकता है. इसलिए, इन नीतियों को लागू करते समय हम बेहद सावधान रहते हैं. हमारे मशीन लर्निंग सिस्टम हमें खुद से ऐसे वीडियो पहचानने में मदद करते हैं जो नाबालिगों को खतरे में डाल सकते हों. साथ ही, ये सिस्टम बड़े पैमाने पर हमारी सुरक्षा नीतियां लागू करते हैं, जैसे कि लाइव सुविधाओं पर कुछ पाबंदियां लगाना, टिप्पणियां बंद करना, और वीडियो को सुझाव के तौर पर सीमित रूप से दिखाना.

सीएसएएम से जुड़ी हमारी Transparency Report

सीएसएएम से जुड़ी हमारी Transparency Report


साल 2021 में, हमने इंटरनेट पर बच्चों का यौन शोषण दिखाने वाले कॉन्टेंट से निपटने की Google की कोशिशों से जुड़ी एक Transparency Report लॉन्च की है. इसमें यह बताया गया है कि हमने एनसीएमईसी को कितने मामलों की रिपोर्ट की है. रिपोर्ट में यह डेटा भी है कि YouTube पर हमने इस बारे में क्या काम किया है. इसमें बताया गया है कि हम किस तरह Search पर सीएसएएम से जुड़े नतीजे पहचानते और हटाते हैं. साथ ही, यह जानकारी दी गई है कि सीएसएएम से जुड़ी नीतियों का उल्लंघन करने की वजह से, हमारी सभी सेवाओं पर कितने खाते बंद किए गए हैं.

इस Transparency Report में सीएसएएम से जुड़े उन हैश की संख्या भी बताई गई है जो हमने एनसीएमईसी के साथ शेयर किए हैं. इन हैश की मदद से दूसरे प्लैटफ़ॉर्म बड़ी संख्या में सीएसएएम को पहचान सकते हैं. एनसीएमईसी के हैश डेटाबेस में योगदान करना हमारे और इस उद्योग के दूसरे भागीदारों के लिए, सीएसएएम से निपटने का एक अहम तरीका है. इससे, ऐसे कॉन्टेंट का फिर से इस्तेमाल होने और जिन बच्चों का शोषण हुआ है उनका दोबारा शोषण होने की आशंका कम हो जाती है.

हमारे प्रॉडक्ट पर आपत्तिजनक व्यवहार की शिकायत करना

हमारे प्रॉडक्ट पर आपत्तिजनक व्यवहार की शिकायत करना


हम चाहते हैं कि हमारे प्रॉडक्ट इस्तेमाल करते समय बच्चों को ऐसी चीज़ों का सामना न करना पड़े जो सही नहीं हैं, जैसे कि यौन शोषण से पहले बहलाना-फुसलाना, यौन शोषण की धमकी वाला कॉन्टेंट, मानव तस्करी, और उनके यौन शोषण के दूसरे तरीके. अपने प्रॉडक्ट को बच्चों के लिए सुरक्षित बनाने के लिए, हम उपयोगकर्ताओं को काम की जानकारी उपलब्ध कराते हैं, ताकि वे बच्चों का यौन शोषण दिखाने वाले कॉन्टेंट की शिकायत सही संगठनों या अधिकारियों से कर सकें.

अगर उपयोगकर्ताओं को लगता है कि किसी बच्चे को Gmail या Hangouts जैसे Google के किसी प्रॉडक्ट पर कोई खतरा है, तो वे इस फ़ॉर्म की मदद से शिकायत कर सकते हैं. उपयोगकर्ता YouTube पर आपत्तिजनक कॉन्टेंट फ़्लैग भी कर सकते हैं. साथ ही, वे Google Meet पर यौन शोषण की शिकायत सीधे प्रॉडक्ट में या सहायता केंद्र पर जाकर कर सकते हैं. हम धमकाने और उत्पीड़न से जुड़ी समस्याओं से निपटने में काम आने वाली जानकारी भी उपलब्ध कराते हैं. इसमें यह जानकारी भी शामिल है कि किसी उपयोगकर्ता को किसी बच्चे से संपर्क करने से कैसे रोका जाए. बच्चों के लिए हमारी सुरक्षा नीतियों के बारे में और जानकारी के लिए, YouTube के कम्यूनिटी दिशा-निर्देश और 'Google सुरक्षा केंद्र' देखें.

बच्चों के साथ होने वाले यौन शोषण से लड़ने के लिए, टूलतैयार करना और उन्हें अन्य संगठनों के साथ शेयर करना

बच्चों की सुरक्षा के लिए हम अपनी तकनीकी जानकारी और नई खोजों का इस्तेमाल करते हैं. इसके अलावा, इस काम में हम दूसरों की सहायता भी करते हैं. हमारी शर्तों को पूरा करने वाले संगठनों को, हम अपनी बेहतरीन टेक्नोलॉजी बिल्कुल मुफ़्त देते हैं, ताकि वे बेहतर, तेज़ और सुरक्षित तरीके से काम कर सकें. साथ ही, हम इसमें दिलचस्पी रखने वाले संगठनों को बढ़ावा देते हैं कि वे बच्चों की सुरक्षा करने वाले टूल का ऐक्सेस लेने के लिए आवेदन करें.

कॉन्टेंट सेफ़्टी एपीआई

कई सालों से, Google, मशीन लर्निंग की मदद से डेटा की कैटगरी तय करने वाली तकनीक पर काम कर रहा है. इसकी मदद से, किसी नई सीएसएएम इमेज या वीडियो की पहचान की जा सकती है. इसके बाद, उसकी समीक्षा करके यह पता लगाया जा सकता है कि वह वास्तव में सीएसएएम है या नहीं. ऐसा करके, जल्द से जल्द उस कॉन्टेंट की शिकायत की जा सकती है और उसे इंटरनेट से हटाया जा सकता है. यह तकनीक, कॉन्टेंट सेफ़्टी एपीआई को बेहतर बनाती है. कॉन्टेंट सेफ़्टी एपीआई की मदद से, संगठनों को 'शोषण करने वाले संभावित कॉन्टेंट' को पहचानने और उसे समीक्षा के लिए प्राथमिकता देने में मदद मिलती है. साल 2021 के शुरुआती छह महीनों में, हमारे पार्टनरों ने कॉन्टेंट सेफ़्टी एपीआई की मदद से 600 करोड़ से भी ज़्यादा इमेज की समीक्षा की. इसके इस्तेमाल से, उन्हें आपत्तिजनक कॉन्टेंट का तेज़ी से और बेहतर ढंग से पता लगाकर, सही अधिकारियों या संगठनों को उसकी शिकायत करने में मदद मिली.

CSAI Match

साल 2014 में, YouTube के इंजीनियरों ने एक ऐसी टेक्नोलॉजी तैयार की जिसके इस्तेमाल से, पहले से पहचाने जा चुके सीएसएएम वीडियो को टैग करके हमारे प्लैटफ़ॉर्म से हटा दिया गया. हम CSAI Match की मदद से, यह तकनीक अन्य संगठनों और कंपनियों के साथ शेयर करते हैं. CSAI Match एक एपीआई है. इसकी मदद से, किसी वीडियो में उन फ़ाइलों की पहचान की जाती है जिनमें बच्चों का यौन शोषण दिखाने वाले पहले से पहचाने जा चुके कॉन्टेंट को फिर से अपलोड किया गया हो. CSAI Match के इस्तेमाल से गैर सरकारी संगठन और कंपनियां, मिलते-जुलते कॉन्टेंट का, हमारे डेटाबेस में मौजूद यौन शोषण वाले पहचाने जा चुके कॉन्टेंट के साथ मिलान कर पाती हैं. इसकी मदद से, वे स्थानीय नियम और कानून के हिसाब से ऐसे कॉन्टेंट के ख़िलाफ़ ज़रूरी कार्रवाई कर सकती हैं.

साझेदार और कार्यक्रम

हम टेक्नोलॉजी कोअलिशन, आइसीटी कोअलिशन, वीप्रोटेक्ट ग्लोबल अलायंस, इनहोप, फ़ेयर प्ले अलायंस जैसे कई गठबंधनों के सक्रिय सदस्य हैं. इन गठबंधनों के तहत कई कंपनियां और गैर-सरकारी संगठन साथ मिलकर, सीएसएएम के ऑनलाइन लेन-देन और बच्चों के यौन उत्पीड़न पर लगाम लगाने के लिए काम करते हैं.

हम मिलकर बच्चों की सुरक्षा से जुड़े रिसर्च के लिए फ़ंड उपलब्ध कराते हैं और आपस में टूल और जानकारी शेयर करते हैं. इसमें, Transparency Report, इन-प्रॉडक्ट डिटेक्शन, और ऑपरेशनल प्रोसेस के लिए अहम जानकारी देना शामिल है.

हमारे साझेदार

Google.org के Ad Grants

Google.org के Ad Grants


Google.org, बच्चों के यौन शोषण और उत्पीड़न के ख़िलाफ़ बेहतरीन काम कर रहे संगठनों को अनुदान देता है, जैसे कि इनहोप और ईसीपीएटी इंटरनैशनल. इसके अलावा, 2003 से अब तक Google.org ने गैर-सरकारी संगठनों और चैरिटी संस्थाओं के विज्ञापनों को मुफ़्त में दिखाने के लिए बजट के तौर पर नौ करोड़ डॉलर दिए हैं. इस रकम की मदद से, बच्चों के यौन शोषण की शिकायत करने के लिए हॉटलाइन चलाने वाले ये गैर-सरकारी संगठन और चैरिटी संस्थाएं ज़रूरतमंदों तक पहुंच पाती हैं.

Google Fellow कार्यक्रम

Google Fellow कार्यक्रम


हम बच्चों के यौन शोषण के ख़िलाफ़ काम करने वाले संगठनों को तकनीकी फ़ेलोशिप के लिए फ़ंड भी मुहैया कराते हैं. इनमें एनसीएमईसी और थॉर्न जैसे संगठन शामिल हैं. इसके अलावा, बच्चों के ख़िलाफ़ इंटरनेट पर होने वाले अपराधों की जांच करने वाले अधिकारियों को Google प्रशिक्षण भी देता है. यह प्रशिक्षण क्राइम्स अगेन्स्ट चिल्ड्रेन कॉन्फ़्रेंस और नैशनल लॉ एन्फ़ोर्समेंट ट्रेनिंग ऑन चाइल्ड एक्सप्लॉयटेशन जैसे फ़ोरम के ज़रिए दिया जाता है.