ஆன்லைனில் சிறார் பாலியல் வன்கொடுமையையும் முறைகேடுகளையும் எதிர்க்க நாங்கள் அதிகம் முயல்கிறோம், மேலும் எங்கள் தளங்களில் தகாத நடவடிக்கைகளைத் தடுக்கவும் கண்டறியவும் அகற்றவும் புகாரளிக்கவும் எங்களுக்குச் சொந்தமான தொழில்நுட்பங்களைப் பயன்படுத்தி வருகிறோம்.

NGOக்களோடும் தொழில்துறையோடும் இணைந்து எங்கள் தொழில்நுட்பத் திறனை அவர்களோடு பகிர்ந்து நிறுவனங்கள் CSAMமை எதிர்ப்பதற்கு உதவ கருவிகளையும் உருவாக்கிப் பகிரும் வகையில் திட்டங்களை நடத்துகிறோம்.

சிறுவர் பாதுகாப்புக் கருவித்தொகுப்பு குறித்து இங்கு மேலும் அறிந்துகொள்ளுங்கள்.

எங்கள் தளங்களிலும் சேவைகளிலும் தகாத உள்ளடக்கத்தை எதிர்த்தல்

Google நிறுவனம் தொடங்கிய காலத்தில் இருந்தே எங்கள் சேவைகளில் சிறார் பாலியல் வன்கொடுமை மற்றும் தவறாக வழிநடத்துதல் சார்ந்த உள்ளடக்கத்தை முனைப்போடு எதிர்த்து வருகிறோம். சிறார் பாலியல் முறைகேடு சார்ந்த உள்ளடக்கத்தையும் நடத்தையையும் தடுக்கவும், கண்டறியவும், அகற்றவும், புகாரளிக்கவும் குறிப்பிடத்தக்க அளவில் தொழில்நுட்பத்தையும், மனித உழைப்பையும், நேரத்தையும் அர்ப்பணித்து வருகிறோம்.

என்ன செய்கிறோம்?

தவறான பயன்பாட்டைத் தடுத்தல்

தவறான பயன்பாட்டைத் தடுத்தல்


எங்கள் தயாரிப்புகள் சிறார்கள் பயன்படுத்தப் பாதுகாப்பானவை என்பதை உறுதிசெய்வதன் மூலம் தவறான பயன்பாட்டைத் தடுப்பதை நோக்கமாகக் கொண்டுள்ளோம். மாறிவரும் அச்சுறுத்தல்களையும் புதிய வழிகளிலான சட்டவிரோதச் செயல்களையும் புரிந்துகொள்ள, கிடைக்கக்கூடிய அனைத்துப் புள்ளிவிவரங்களையும் ஆராய்ச்சிகளையும் பயன்படுத்துகிறோம். உதாரணமாக AI ஜெனரேட்டட் CSAM. சட்டவிரோதமான CSAMமிற்கு எதிராக மட்டுமின்றி சிறார்களைப் பாலியல் வன்கொடுமைக்குள்ளாக்குவதை ஊக்குவித்து அவர்களை ஆபத்துக்குள்ளாக்கும் பரந்தளவிலான உள்ளடக்கத்திற்கு எதிராகவும் நடவடிக்கை எடுக்கிறோம்.

கண்டறிதலும் புகாரளித்தலும்

கண்டறிதலும் புகாரளித்தலும்


ஹேஷ் பொருத்தத் தொழில்நுட்பம் மற்றும் மெஷின் லேர்னிங் வகைப்படுத்திகள் உள்ளிட்ட அதிநவீனத் தொழில்நுட்பம் மற்றும் பயிற்சி பெற்ற நிபுணர் குழுக்கள் உதவியுடன் CSAMமை அடையாளம் கண்டு புகாரளிக்கிறோம். ஏற்கெனவே CSAMமாக அறியப்பட்டவற்றின் ஹேஷ்களுடன் ஒப்பிடுவதற்கெனப் படத்திற்கோ வீடியோவிற்கோ தனித்துவமான டிஜிட்டல் கைரேகை அல்லது "ஹேஷை" இந்தத் தொழில்நுட்பங்கள் உருவாக்குகின்றன. CSAMமைக் கண்டறிந்தால் உலகம் முழுவதும் சட்ட அமலாக்க அமைப்புகளுடன் இணைந்து பணியாற்றும் காணாமல் போன மற்றும் தவறாகப் பயன்படுத்தப்பட்ட சிறாருக்கான தேசிய அமைப்பிடம் (NCMEC - National Center for Missing and Exploited Children) அதைப் புகாரளிப்போம்.

உலகளவில் பிற அமைப்புகளுடன் இணைந்து பணியாற்றுதல்

உலகளவில் பிற அமைப்புகளுடன் இணைந்து பணியாற்றுதல்


ஆன்லைனில் சிறார் பாலியல் வன்கொடுமையை எதிர்க்கும் முயற்சிகளில் NCMEC மற்றும் உலகளவில் உள்ள பிற அமைப்புகளுடன் இணைந்து செயல்படுகிறோம். இந்த முயற்சிகளின் ஒரு பகுதியாக, NGOக்களுடனும் தொழில்துறை அமைப்புகளுடனும் உறுதியுடன் இணைந்து செயல்படுகிறோம். சிறார் பாலியல் வன்கொடுமை மற்றும் தவறாகப் பயன்படுத்துதலின் மாறிவரும் இயல்பைக் கூட்டாகப் புரிந்துகொள்ளுதலை மேம்படுத்தவும் அந்தப் புரிதலுக்குப் பங்களிக்கவும் இது உதவுகிறது.

இதை எப்படிச் செய்கிறோம்?

சிறார் பாலியல் கொடுமை சார்ந்த உள்ளடக்கம், தவறான எண்ணத்துடன் அணுகுதல், பாலியல் ரீதியான மிரட்டல் போன்ற பல்வேறு உள்ளடக்கம் மீது பல வகையான தொழில்நுட்பங்களையும் மதிப்பாய்வாளர்களையும் பயன்படுத்தி நடவடிக்கை எடுத்து வருகிறோம். எங்கள் அணுகுமுறை பற்றிய மேலோட்டமான விளக்கத்தை நீங்கள் படிக்கலாம் அல்லது இந்த வகையான தவறான பயன்பாட்டை எங்களின் சில தயாரிப்புகள் எப்படி எதிர்கொள்கின்றன என்பதைக் கீழே விரிவாகப் பார்க்கலாம்.

Searchசில் சிறார் பாலியல் வன்கொடுமையை எதிர்த்தல்

Searchசில் சிறார் பாலியல் வன்கொடுமையை எதிர்த்தல்


Google Search தகவல்களைக் கண்டறிவதை எளிதாக்குகிறது என்றாலும் Searchசில் சட்டவிரோதமான அல்லது சிறார்களைப் பாலியல்ரீதியாகத் தவறாகப் பயன்படுத்தும் உள்ளடக்கங்கள் இடம்பெறுவதை நாங்கள் விரும்புவதில்லை. சிறார் பாலியல் வன்கொடுமை சார்ந்த உள்ளடக்கத்திற்கோ சிறாருக்குப் பாலியல் சார்ந்த பாதிப்பையோ ஆபத்தையோ ஏற்படுத்தக்கூடிய அல்லது அவர்களைத் தவறாகப் பயன்படுத்தக்கூடிய உள்ளடக்கத்திற்கோ வழிவகுக்கும் தேடல் முடிவுகளைக் காட்டாமலிருப்பது எங்கள் கொள்கையாகும். அதிகரித்து வரும் இந்த அச்சுறுத்தல்களைத் தடுக்க எங்கள் அல்காரிதங்களைத் தொடர்ந்து புதுப்பித்து வருகிறோம்.

CSAM உள்ளடக்கத்தைத் தேட முயல்வதாக நாங்கள் புரிந்துகொள்ளும் தேடல்களுக்குக் கூடுதல் பாதுகாப்புகளைப் பயன்படுத்துகிறோம். தேடல் வினவல் CSAM உள்ளடக்கத்தைத் தேடுவதாகத் தோன்றினால் வெளிப்படையான பாலியல் சார்ந்த முடிவுகளை ஃபில்டர் செய்துவிடுகிறோம். வயதுவந்தோருக்கான வெளிப்படையான உள்ளடக்கத்தைப் பெற முயலும் வினவல்களாக இருந்தால் பாலியல் உள்ளடக்கத்துடன் சிறார்களைத் தொடர்புபடுத்துவதைத் தடுக்கும் நோக்கில், சிறார்கள் இடம்பெற்றிருக்கும் படங்களை Search காட்டாது. பல நாடுகளில், தெளிவாக CSAM தொடர்புடைய வினவல்களை உள்ளிடும் பயனர்களுக்குச் சிறார் பாலியல் வன்கொடுமை சார்ந்தவை சட்டவிரோதமானவை எனும் நன்றாகத் தெரியும்படியான எச்சரிக்கை காட்டப்படுகிறது. யுனைடெட் கிங்டமிலுள்ள இன்டர்நெட் வாட்ச் ஃபவுண்டேஷன், கனடியன் சென்ட்டர் ஃபார் சைல்டு புரொடெக்‌ஷன், கொலம்பியாவிலுள்ள Te Protejo போன்ற நம்பகமான அமைப்புகளுக்கு அந்த உள்ளடக்கத்தை எவ்வாறு புகாரளிப்பது என்கிற விவரமும் அதில் இருக்கும். இந்த எச்சரிக்கைகள் காட்டப்படும்போது இதுபோன்ற உள்ளடக்கத்தைப் பயனர்கள் தொடர்ந்து தேடுவது குறையும்.

முறைகேடான வீடியோக்களையும் உள்ளடக்கத்தையும் தடுப்பதற்கான YouTubeன் பணிகள்

முறைகேடான வீடியோக்களையும் உள்ளடக்கத்தையும் தடுப்பதற்கான YouTubeன் பணிகள்


YouTubeல் சிறார்களைப் பாலியல் ரீதியாகக் காட்டுகின்ற/தவறாகப் பயன்படுத்துகின்ற வீடியோக்கள், பிளேலிஸ்ட்கள், சிறுபடங்கள், கருத்துகள் ஆகியவற்றுக்கு எதிரான தெளிவான கொள்கைகளை நாங்கள் எப்போதும் நடைமுறைப்படுத்துகிறோம். இந்தக் கொள்கைகள் மீறப்படும்போது அவற்றை முனைப்புடன் கண்டறிய மெஷின் லேர்னிங் சிஸ்டங்களைப் பயன்படுத்துகிறோம். பயனர்கள் மற்றும் நம்பகமான புகாரளிப்பாளர்களால் கொடியிடப்பட்ட/எங்கள் சிஸ்டங்களால் கண்டறியப்பட்ட மீறல்களை உடனுக்குடன் அகற்றுகின்ற மதிப்பாய்வாளர்களையும் உலகம் முழுவதும் கொண்டுள்ளோம்.

வயது வராதோரைக் கொண்டுள்ள சில உள்ளடக்கம் எங்கள் கொள்கைகளை மீறவில்லை என்றாலும், வயது வராதோரை ஆன்லைனிலும் ஆஃப்லைனிலும் தவறாகப் பயன்படுத்தும் அபாயம் உள்ளது என்பதை நாங்கள் அறிந்திருக்கிறோம். எனவேதான் இந்தக் கொள்கைகளை அமல்படுத்தும்போது கூடுதல் எச்சரிக்கையுடனான அணுகுமுறையைப் பயன்படுத்துகிறோம். வயது வராதோருக்கு ஆபத்தை ஏற்படுத்தக்கூடிய வீடியோக்களை முனைப்புடன் அடையாளங்காண எங்களின் மெஷின் லேர்னிங் சிஸ்டங்கள் உதவுகின்றன. மேலும் நேரலை அம்சங்களைத் தடைசெய்தல், கருத்துகளை முடக்குதல், வீடியோ பரிந்துரைகளைக் கட்டுப்படுத்துதல் போன்ற எங்கள் பாதுகாப்பு நடவடிக்கைகளைப் பெரிய அளவில் செயல்படுத்தவும் இவை உதவுகின்றன.

எங்களின் CSAM வெளிப்படைத்தன்மை அறிக்கை

எங்களின் CSAM வெளிப்படைத்தன்மை அறிக்கை


2021ல், ஆன்லைனில் சிறார் பாலியல் கொடுமை சார்ந்த உள்ளடக்கத்தைத் தடுப்பதற்கான Googleளின் முயற்சிகள் குறித்த வெளிப்படைத்தன்மை அறிக்கையை வெளியிட்டோம். அதில் NCMECயிடம் எத்தனை முறை புகாரளித்தோம் என்பதை விளக்கியுள்ளோம். YouTubeல் எங்களின் முயற்சிகள் குறித்தும் அந்த அறிக்கையில் கூறப்பட்டுள்ளது. Searchசில் இருந்து CSAM முடிவுகளை எப்படிக் கண்டறிந்து அகற்றுகிறோம், எங்கள் சேவைகள் முழுவதிலும் CSAM மீறல்களுக்காக எத்தனை கணக்குகள் முடக்கப்பட்டன என்கிற விவரங்களும் அதில் உள்ளன.

NCMEC உடன் நாங்கள் பகிரும் CSAM ஹேஷ்களின் எண்ணிக்கை குறித்த தகவல்களும் வெளிப்படைத்தன்மை அறிக்கையில் இருக்கும். பிற பிளாட்ஃபார்ம்கள் CSAMமைப் பெரிய அளவில் அடையாளம் காண இந்த ஹேஷ்கள் உதவுகின்றன. NCMEC ஹேஷ் தரவுத்தளத்திற்குப் பங்களிப்பது நாங்களும் தொழில்துறையிலுள்ள மற்றவர்களும் CSAMமைத் தடுப்பதற்கான முயற்சியில் உதவும் முக்கிய வழிகளில் ஒன்றாகும். ஏனெனில் இந்த உள்ளடக்கத்தை மீண்டும் பகிர்வதைக் குறைக்கவும், அதனுடன் தொடர்புடைய வன்கொடுமைக்கு உள்ளாக்கப்பட்ட சிறார்களை மீண்டும் பாதிப்புக்குள்ளாக்குவதைக் குறைக்கவும் இது உதவுகிறது.

எங்கள் தயாரிப்புகளில் தகாத செயல்பாட்டைப் புகாரளித்தல்

எங்கள் தயாரிப்புகளில் தகாத செயல்பாட்டைப் புகாரளித்தல்


தவறான எண்ணத்துடன் அணுகுதல், பாலியல் ரீதியான மிரட்டல், கடத்துதல், பாலியல் ரீதியாகத் தவறாகப் பயன்படுத்தும் பிற முறைகள் ஆகியவற்றிலிருந்து எங்கள் தயாரிப்புகளைப் பயன்படுத்தும் சிறார்களைப் பாதுகாக்க விரும்புகிறோம். எங்கள் தயாரிப்புகளைச் சிறார்கள் பயன்படுத்துவதற்குப் பாதுகாப்பானதாக்கும் பணியின் பகுதியாக, தொடர்புடைய அதிகாரிகளிடம் சிறார் பாலியல் கொடுமை சார்ந்த உள்ளடக்கம் குறித்து பயனர்கள் புகாரளிக்க உதவ பயனுள்ள தகவல்களை வழங்குகிறோம்.

Gmail, Hangouts போன்ற Google தயாரிப்புகளில் சிறார் ஆபத்துக்கு உள்ளாக்கப்பட்டுள்ளார் எனும் சந்தேகம் பயனர்களுக்கு ஏற்பட்டால், இந்தப் படிவத்தைப் பயன்படுத்தி அவர்கள் புகாரளிக்கலாம். பயனர்களால் உதவி மையம் மூலமும், தயாரிப்பிலேயே நேரடியாகவும் YouTubeல் தகாத உள்ளடக்கத்தைக் கொடியிடவும், Google Meetல் தவறான பயன்பாட்டைப் குறித்துப் புகாரளிக்கவும் முடியும். சிறாரைப் பயனர்கள் நேரடியாகத் தொடர்புகொள்வதைத் தடுக்கும் வழிமுறை பற்றிய தகவல் உட்பட மிரட்டுதல், உபத்திரவம் ஆகியவற்றை எவ்வாறு சமாளிப்பது என்பவை பற்றிய தகவலையும் நாங்கள் வழங்குகிறோம். எங்களின் சிறார் பாதுகாப்புக் கொள்கைகளைப் பற்றி மேலும் அறிய YouTubeன் சமூக வழிகாட்டுதல்களையும் Google பாதுகாப்பு மையத்தையும் பாருங்கள்.

சிறார் பாலியல் வன்கொடுமையை எதிர்ப்பதற்கான கருவிகளை உருவாக்கிப் பகிர்தல்

சிறுவர்களைப் பாதுகாக்கவும், மற்றவர்களும் அதையே செய்வதை ஆதரிக்கவும் எங்களுடைய தொழில்நுட்பத் திறனையும் கண்டுபிடிப்புகளையும் பயன்படுத்துகிறோம். தகுதிபெறும் நிறுவனங்கள் தங்கள் செயல்பாடுகளைச் சிறப்பாகவும் விரைவாகவும் பாதுகாப்பாகவும் செய்வதற்காக எங்கள் மேம்பட்ட தொழில்நுட்பத்தை விலை இல்லாமல் அவர்களுக்கு வழங்குகிறோம். அதோடு ஆர்வமுள்ள நிறுவனங்களை எங்கள் சிறுவர் பாதுகாப்புக் கருவிகளைப் பயன்படுத்த விண்ணப்பிக்குமாறு ஊக்குவிக்கிறோம்.

Content Safety API

மற்றவர்கள் பார்ப்பதற்கு முன்பே CSAM உள்ளடக்கத்தை உடனுக்குடன் அடையாளம் காணும் மெஷின் லேர்னிங் வகைப்படுத்திகள் தொடர்பாக Google பல ஆண்டுகளாகப் பணியாற்றி வருகிறது. இதன்மூலம் உள்ளடக்கத்தை மதிப்பாய்வு செய்யவும் அது CSAM என உறுதிசெய்யப்பட்டால் அதை அகற்றிவிட்டு, உடனடியாக அது குறித்துப் புகாரளிக்கவும் முடியும். இந்தத் தொழில்நுட்பத்தைப் பயன்படுத்தி Content Safety API இயங்குகிறது. கொள்கைமீறும் உள்ளடக்கமாக இருக்கக்கூடியவற்றை மதிப்பாய்வு செய்வதற்காக நிறுவனங்கள் அவற்றை வகைப்படுத்தி முன்னுரிமை வழங்க இது உதவுகிறது. ஒவ்வொரு மாதமும் கோடிக்கணக்கான ஃபைல்களை வகைப்படுத்த Content Safety APIயைக் கூட்டாளர்கள் பயன்படுத்துகிறார்கள். சிக்கலுக்குரிய உள்ளடக்கத்தை விரைவாகவும் அதிகத் துல்லியத்துடனும் கண்டறிந்து உரிய அதிகாரிகளிடம் அதுகுறித்துப் புகாரளிக்கவும் இது உதவுகிறது.

CSAI Match

2014ல், எங்கள் சேவைகளில் இருந்து CSAM வீடியோக்களாக அறியப்பட்டவற்றைக் குறியிடவும் அகற்றவும் தேவையான தொழில்நுட்பத்தை YouTube பொறியாளர்கள் உருவாக்கிப் பயன்படுத்தினர். ஏற்கெனவே சிறார் பாலியல் கொடுமை சார்ந்த உள்ளடக்கமாக அடையாளம் காணப்பட்டவை மீண்டும் பதிவேற்றப்படுவதைக் கண்டறிய உதவும் இந்தத் தொழில்நுட்பத்தை CSAI Match என்ற API மூலம் மற்றவர்களுடன் பகிர்ந்துகொள்கிறோம். கொள்கைமீறும் உள்ளடக்கமாக அறியப்பட்டவற்றின் தரவுத்தளத்துடன் பொருந்தும் உள்ளடக்கத்தை அடையாளம் காண NGOக்களும் நிறுவனங்களும் CSAI Match தொழில்நுட்பத்தைப் பயன்படுத்துகின்றன. இதன்மூலம் உள்ளூர் சட்டங்களுக்கும் ஒழுங்குமுறைகளுக்கும் இணங்க அவர்களால் நடவடிக்கை எடுக்க முடியும்.

கூட்டுகளும் & திட்டங்களும்

ஆன்லைனில் CSAM பகிரப்படுவதை இடையூறு செய்து சிறுவர்களைப் பாலியல் ரீதியாகப் தவறாகப் பயன்படுத்துவதைத் தடுப்பதற்கான தீர்வுகளை உருவாக்குவதற்காக நிறுவனங்களையும் NGOக்களையும் ஒன்று சேர்க்கிற பல கூட்டமைப்புகளில் செயல்பாட்டிலுள்ள உறுப்பினராக உள்ளோம். உதாரணமாக, டெக்னாலஜி கொலிஷன் (Technology Coalition), ICT கொலிஷன் (ICT Coalition), வீபுரொடெக்ட் குளோபல் அலையன்ஸ் (WeProtect Global Alliance), இன்ஹோப் (INHOPE), ஃபேர் பிளே அலையன்ஸ் (Fair Play Alliance) போன்றவை.

நாங்கள் அனைவரும் ஒன்றிணைந்து சிறுவர் பாதுகாப்பு ஆராய்ச்சிக்கு உதவித் தொகைகளை வழங்குகிறோம், வெளிப்படைத்தன்மை அறிக்கை குறித்த எங்கள் அவதானிப்புகள், தயாரிப்பிலேயே கண்டறிதல், இயக்கச் செயல்முறைகள் போன்ற கருவிகளையும் தகவல்களையும் பகிர்ந்துகொள்கிறோம்.

இணைந்து வழங்குவது:

Google.org மூலம் Ad Grants

Google.org மூலம் Ad Grants


சிறார் பாலியல் வன்கொடுமை மற்றும் தவறாகப் பயன்படுத்துதல் ஆகியவற்றுக்கு எதிரான போராட்டத்தை முன்னின்று நடத்தும் INHOPE, ECPAT இண்டர்னேஷனல் போன்ற அமைப்புகளுக்கு Google.org நிதியுதவி அளிக்கிறது. அத்துடன், 2003 இலிருந்து, Google.org ஏறக்குறைய $90 மில்லியனைச் சிறார் பாலியல் வன்கொடுமையைப் புகாரளிப்பதற்கான ஹாட்லைன் எண்களைச் செயல்படுத்திக்கொண்டிருக்கும் NGOக்கள் மற்றும் அறக்கட்டளைகளுக்கு இலவச விளம்பரங்களுக்கான நிதியாக வழங்கியுள்ளது. இது தேவை இருப்பவர்களுக்கு அந்த அமைப்புகள் உதவிக்கரம் நீட்ட உதவுகிறது.

Google Fellow திட்டம்

Google Fellow திட்டம்


NCMEC, தோர்ன் (Thorn) போன்ற சிறார் பாலியல் வன்கொடுமையை எதிர்ப்பதற்காகவே உள்ள அமைப்புகளில் தொழில்நுட்ப ஆய்வுகளுக்கு உதவித் தொகைகளையும் அளிக்கிறோம். இத்துடன் சிறாருக்கு எதிரான குற்றங்கள் குறித்த கருத்தரங்கம், சிறார் பாலியல் முறைகேடுகளைப் பற்றிய தேசியச் சட்ட அமலாக்கப் பயிற்சி போன்ற மன்றங்களின் மூலமாக ஆன்லைனில் சிறாருக்கு எதிராக நடக்கும் குற்றங்கள் குறித்து விசாரிக்கும் சட்ட அமலாக்கத்துறை அதிகாரிகளுக்கும் Google பயிற்சியளிக்கிறது.