ഓൺലൈനിൽ കുട്ടികൾക്കെതിരായ ലൈംഗിക അതിക്രമത്തിനും ചൂഷണത്തിനുമെതിരായ പോരാട്ടത്തിന് ഞങ്ങൾ വളരെയധികം സമയവും പണവും ചെലവഴിക്കുന്നു. ഞങ്ങളുടെ പ്ലാറ്റ്ഫോമുകളിലെ കുറ്റകൃത്യങ്ങൾ കണ്ടെത്താനും അവയിൽ നിന്ന് പിന്തിരിപ്പിക്കാനും റിപ്പോർട്ട് ചെയ്യാനും ഞങ്ങളുടെ ഉടമസ്ഥതയിലുള്ള സാങ്കേതികവിദ്യ ഉപയോഗിക്കുകയും ചെയ്യുന്നു.
ഞങ്ങളുടെ സാങ്കേതിക വൈദഗ്ദ്ധ്യം പങ്കിടാനും CSAM-നെതിരെ പോരാടാൻ സ്ഥാപനങ്ങളെ സഹായിക്കുന്നതിന് ടൂളുകൾ വികസിപ്പിച്ച് പങ്കിടാനുമുള്ള പ്രോഗ്രാമുകളിൽ NGO-കളുമായും ഇൻഡസ്ട്രികളുമായും ഞങ്ങൾ പങ്കാളികളാകുന്നു.
കുട്ടികൾക്കുള്ള ഞങ്ങളുടെ സുരക്ഷാ ടൂൾകിറ്റിനെക്കുറിച്ച് ഇവിടെ കൂടുതലറിയുക.
ഞങ്ങളുടെ സ്വന്തം പ്ലാറ്റ്ഫോമുകളിലും സേവനങ്ങളിലും ദുരുപയോഗം തടയാനുള്ള പോരാട്ടം
ഞങ്ങളുടെ സേവനങ്ങളിൽ കുട്ടികൾക്കെതിരായ ലൈംഗിക അതിക്രമത്തിനെതിരെയും ചൂഷണത്തിനെതിരെയും പോരാടാൻ തുടക്കം മുതൽ Google പ്രതിജ്ഞാബദ്ധമാണ്. കുട്ടികളെ ലൈംഗികമായി ചൂഷണം ചെയ്യുന്ന ഉള്ളടക്കവും പെരുമാറ്റവും തടയാനും കണ്ടെത്താനും നീക്കം ചെയ്യാനും റിപ്പോർട്ട് ചെയ്യാനും ഞങ്ങൾ ഗണ്യമായ ഉറവിടങ്ങളും സാങ്കേതികവിദ്യയും ആളുകളെയും സമയവും നീക്കിവയ്ക്കുന്നു.
ഞങ്ങൾ എന്താണ് ചെയ്യുന്നത്?
ദുരുപയോഗം തടയൽ
ഞങ്ങളുടെ ഉൽപ്പന്നങ്ങൾ കുട്ടികൾക്ക് ഉപയോഗിക്കാൻ സുരക്ഷിതമാണെന്ന് ഉറപ്പാക്കുന്നതിലൂടെ, ദുരുപയോഗം ഉണ്ടാകുന്നത് തടയാൻ ഞങ്ങൾ ലക്ഷ്യമിടുന്നു. വർദ്ധിച്ച് വരുന്ന ഭീഷണികളും അത് തടയാനുള്ള പുതിയ വഴികളും മനസ്സിലാക്കുന്നതിന് ഞങ്ങൾ ലഭ്യമായ എല്ലാ ഉൾക്കാഴ്ചകളും ഗവേഷണങ്ങളും ഉപയോഗിക്കുന്നു, ഉദാഹരണത്തിന്, AI ജനറേറ്റ് ചെയ്ത CSAM-ന്റെ കാര്യത്തിൽ. നിയമവിരുദ്ധമായ CSAM-ൽ മാത്രമല്ല, കുട്ടികളെ ലൈംഗികമായി ദുരുപയോഗം ചെയ്യുന്നതിനെ പ്രോത്സാഹിപ്പിക്കുകയും അപകടപ്പെടുത്തുകയും ചെയ്യുന്ന എല്ലാ ഉള്ളടക്കങ്ങളിലും ഞങ്ങൾ നടപടിയെടുക്കുന്നു.
കണ്ടെത്തുന്നു, റിപ്പോർട്ട് ചെയ്യുന്നു
ഒരു ചിത്രത്തിനോ വീഡിയോയ്ക്കോ വേണ്ടി ഒരു "ഹാഷ്" അല്ലെങ്കിൽ തനതായ ഡിജിറ്റൽ ഫിംഗർപ്രിന്റ് സൃഷ്ടിക്കുന്ന മെഷീൻ ലേണിംഗ് ക്ലാസിഫയറുകളും ഹാഷ്-മാച്ചിംഗ് സാങ്കേതികവിദ്യയും ഉൾപ്പെടെ, പരിശീലനം ലഭിച്ച സ്പെഷ്യലിസ്റ്റ് ടീമുകളും അത്യാധുനിക സാങ്കേതികവിദ്യയും ഉപയോഗിച്ച് ഞങ്ങൾ CSAM തിരിച്ചറിഞ്ഞ് റിപ്പോർട്ട് ചെയ്യുന്നു, അതിനാൽ ഇത് അറിയപ്പെടുന്ന CSAM-ന്റെ ഹാഷുകളുമായി താരതമ്യപ്പെടുത്താവുന്നതാണ്. ഞങ്ങൾ CSAM കണ്ടെത്തുമ്പോൾ, അത് ലോകമെമ്പാടുമുള്ള നിയമ നിർവ്വഹണ ഏജൻസികളുമായി സമ്പർക്കം പുലർത്തുന്ന National Center for Missing and Exploited Children-ൽ (NCMEC) റിപ്പോർട്ട് ചെയ്യുന്നു.
ആഗോളതലത്തിൽ സഹകരിക്കുന്നു
കുട്ടികൾക്കെതിരായ ഓൺലൈൻ ലൈംഗിക അതിക്രമം ചെറുക്കാനുള്ള ഞങ്ങളുടെ ശ്രമങ്ങളിൽ NCMEC-യുമായും ആഗോളതലത്തിൽ മറ്റ് സംഘടനകളുമായും ഞങ്ങൾ സഹകരിക്കുന്നു. ഈ ശ്രമങ്ങളുടെ ഭാഗമായി, കുട്ടികൾക്കെതിരായ ലൈംഗിക അതിക്രമത്തിന്റെയും ചൂഷണത്തിന്റെയും മാറിമാറി വരുന്ന സ്വഭാവത്തെ കുറിച്ചുള്ള ഞങ്ങളുടെ കൂട്ടായ ധാരണ വളർത്താനും അതിലേക്ക് സംഭാവന ചെയ്യാനും സഹായിക്കുന്നതിന് NGO-കളുമായും വ്യവസായ കൂട്ടായ്മകളുമായും ഞങ്ങൾ ശക്തമായ പങ്കാളിത്തം സ്ഥാപിക്കുന്നു.
ഞങ്ങൾ അത് എങ്ങനെയാണ് ചെയ്യുന്നത്?
കുട്ടികളെ ലൈംഗികമായി ദുരുപയോഗം ചെയ്യുന്നത് ചിത്രീകരിക്കുന്ന ഉള്ളടക്കം, ഗ്രൂമിംഗ്, ലൈംഗിക ചൂഷണം എന്നിവയും മറ്റും പോലുള്ള ഉള്ളടക്കത്തിന്മേൽ, വിപുലമായ സാങ്കേതികവിദ്യയും മനുഷ്യ വിഭവശേഷിയും ഉപയോഗിച്ച് ഞങ്ങൾ നടപടിയെടുക്കുന്നു. ഞങ്ങളുടെ സമീപനത്തിന്റെ വിശദമായ വിവരണം നിങ്ങൾക്ക് വായിക്കാം അല്ലെങ്കിൽ ഇത്തരം ദുരുപയോഗം ഞങ്ങളുടെ ചില ഉൽപ്പന്നങ്ങൾ കൈകാര്യം ചെയ്യുന്ന രീതി സംബന്ധിച്ച് താഴെ വിശദമായി മനസ്സിലാക്കാം.
Search-ൽ കുട്ടികൾക്കെതിരായ ലൈംഗിക അതിക്രമം തടയുന്നതിന് എതിരെയുള്ള പോരാട്ടം
വിവരങ്ങൾ കണ്ടെത്തുന്നത് Google Search എളുപ്പമാക്കുന്നു, എന്നാൽ നിയമവിരുദ്ധമായ ഉള്ളടക്കമോ കുട്ടികളെ ലൈംഗികമായി ചൂഷണം ചെയ്യുന്ന ഉള്ളടക്കമോ Search-ൽ കാണിക്കാൻ ഞങ്ങൾ ഒരിക്കലും ആഗ്രഹിക്കുന്നില്ല. കുട്ടികളെ ലൈംഗികമായി ദുരുപയോഗിക്കുന്ന ഉള്ളടക്കത്തിലേക്കോ കുട്ടികളെ ലൈംഗികമായി ഇരയാക്കുന്നതോ അപായപ്പെടുത്തുന്നതോ ചൂഷണം ചെയ്യുന്നതോ ആയ ഉള്ളടക്കത്തിലേക്കോ നയിക്കുന്ന തിരയൽ ഫലങ്ങൾ ബ്ലോക്ക് ചെയ്യുക എന്നുള്ളത് ഞങ്ങളുടെ നയമാണ്. വർദ്ധിച്ച് വരുന്ന ഇത്തരം ഭീഷണികളെ ചെറുക്കാൻ ഞങ്ങളുടെ ആൽഗരിതങ്ങൾ നിരന്തരം അപ്ഡേറ്റ് ചെയ്യുകയാണ്.
CSAM ഉള്ളടക്കം തേടുന്നുവെന്ന് മനസ്സിലാക്കുന്ന തിരയലുകൾ കണ്ടെത്താൻ ഞങ്ങൾ അധിക പരിരക്ഷ നൽകുന്നു. CSAM-ഉം മുതിർന്നവർക്കുള്ള ലൈംഗികത പ്രകടമാക്കുന്ന ഉള്ളടക്കം സംബന്ധിച്ച ചോദ്യങ്ങളും തേടുന്നതാണ് തിരയൽ പദമെങ്കിൽ, പ്രായപൂർത്തിയായവർക്കുള്ള ലൈംഗികത സംബന്ധിച്ച തിരയൽ ഫലങ്ങൾ ഞങ്ങൾ ഫിൽട്ടർ ചെയ്യുന്നു, കുട്ടികളും ലൈംഗിക ഉള്ളടക്കവും തമ്മിലുള്ള ബന്ധം തകർക്കാൻ, കുട്ടികൾ ഉൾപ്പെടുന്ന ചിത്രങ്ങൾ Search നൽകില്ല. പല രാജ്യങ്ങളിലും, CSAM-മായി ബന്ധപ്പെട്ട ചോദ്യങ്ങൾ ഉന്നയിക്കുന്ന ഉപയോക്താക്കൾക്ക്, യുകെയിലെ Internet Watch Foundation, Canadian Centre for Child Protection, കൊളംബിയയിലെ Te Protejo പോലുള്ള വിശ്വസനീയമായ സ്ഥാപനങ്ങളിലേക്ക് ഈ ഉള്ളടക്കം എങ്ങനെ റിപ്പോർട്ട് ചെയ്യാം എന്നതിനെക്കുറിച്ചുള്ള വിവരങ്ങൾക്കൊപ്പം, കുട്ടികളെ ലൈംഗികമായി ദുരുപയോഗിക്കുന്ന ഉള്ളടക്കം നിയമവിരുദ്ധമാണെന്ന മുന്നറിയിപ്പ് നൽകുന്നു. ഈ മുന്നറിയിപ്പുകൾ കാണിക്കുമ്പോൾ, ഉപയോക്താക്കൾ ഇത്തരം ഉള്ളടക്കങ്ങൾ തിരയുന്നത് തുടരാനുള്ള സാധ്യത കുറവാണ്.
പ്രസക്തമായ ലിങ്കുകൾ
ചൂഷണം ചെയ്യുന്ന വീഡിയോകളും ഉള്ളടക്കങ്ങളും ചെറുക്കാനുള്ള YouTube-ന്റെ പ്രവർത്തനം
കുട്ടികളെ ലൈംഗികമായി ഉപയോഗിക്കുന്നതോ ചൂഷണം ചെയ്യുന്നതോ ആയ YouTube-ലെ വീഡിയോകൾ, പ്ലേലിസ്റ്റുകൾ, ലഘുചിത്രങ്ങൾ, കമന്റുകൾ എന്നിവയ്ക്കെതിരെ ഞങ്ങൾക്ക് എല്ലായ്പ്പോഴും വ്യക്തമായ നയങ്ങളുണ്ട്. ഈ നയങ്ങളുടെ ലംഘനങ്ങൾ മുൻകൂട്ടി കണ്ടെത്തുന്നതിന് ഞങ്ങൾ മെഷീൻ ലേണിംഗ് സിസ്റ്റങ്ങൾ ഉപയോഗിക്കുന്നു, കൂടാതെ ഞങ്ങളുടെ സിസ്റ്റങ്ങൾ കണ്ടെത്തിയതോ ഉപയോക്താക്കളും ഞങ്ങളുടെ വിശ്വസനീയ ഫ്ലാഗർമാരും ഫ്ലാഗ് ചെയ്യുന്നതോ ആയ ലംഘനങ്ങൾ വേഗത്തിൽ നീക്കം ചെയ്യാൻ ലോകമെമ്പാടും ഞങ്ങൾക്ക് മനുഷ്യ അവലോകകരുമുണ്ട്.
പ്രായപൂർത്തിയാകാത്തവരെ ഫീച്ചർ ചെയ്യുന്ന ചില ഉള്ളടക്കം ഞങ്ങളുടെ നയങ്ങൾ ലംഘിക്കുന്നില്ലെങ്കിലും, പ്രായപൂർത്തിയാകാത്തവർ ഓൺലൈനിലോ ഓഫ്ലൈനിലോ ചൂഷണത്തിന് വിധേയരാകാൻ സാധ്യതയുണ്ടെന്ന് ഞങ്ങൾ തിരിച്ചറിയുന്നു. അതിനാലാണ് ഈ നയങ്ങൾ നടപ്പിലാക്കുമ്പോൾ ഞങ്ങൾ കൂടുതൽ ജാഗ്രത പുലർത്തുന്നത്. പ്രായപൂർത്തിയാകാത്തവരെ അപകടത്തിലാക്കിയേക്കാവുന്ന വീഡിയോകൾ മുൻകൂട്ടി തിരിച്ചറിയാനും തത്സമയ ഫീച്ചറുകൾ നിയന്ത്രിക്കൽ, കമന്റുകൾ പ്രവർത്തനരഹിതമാക്കൽ, വീഡിയോ നിർദ്ദേശങ്ങൾ പരിമിതപ്പെടുത്തൽ എന്നിവ പോലുള്ള ഞങ്ങളുടെ പരിരക്ഷകൾ വേണ്ടവിധം പ്രയോഗിക്കാനും ഞങ്ങളുടെ മെഷീൻ ലേണിംഗ് സിസ്റ്റങ്ങൾ സഹായിക്കുന്നു.
ഞങ്ങളുടെ CSAM സുതാര്യതാ റിപ്പോർട്ട്
2021-ൽ, കുട്ടികളെ ലൈംഗികമായി ദുരുപയോഗം ചെയ്യുന്നത് ചിത്രീകരിക്കുന്ന ഓൺലൈൻ ഉള്ളടക്കം ചെറുക്കാനുള്ള Google-ന്റെ ശ്രമങ്ങളെക്കുറിച്ചുള്ള ഒരു സുതാര്യതാ റിപ്പോർട്ട് ഞങ്ങൾ അവതരിപ്പിച്ചിട്ടുണ്ട്, ഇത് എത്ര റിപ്പോർട്ടുകൾ NCMEC-യിൽ ഞങ്ങൾ സൃഷ്ടിച്ചിട്ടുണ്ടെന്ന് വ്യക്തമാക്കുന്നു. YouTube-ലെ ഞങ്ങളുടെ ശ്രമങ്ങൾ, Search-ൽ നിന്ന് CSAM ഫലങ്ങൾ കണ്ടെത്തി നീക്കം ചെയ്യുന്നത് എങ്ങനെയാണ്, ഞങ്ങളുടെ സേവനങ്ങളിലുടനീളമുള്ള CSAM ലംഘനങ്ങൾ കാരണം എത്ര അക്കൗണ്ടുകൾ പ്രവർത്തനരഹിതമാക്കി എന്നീ വിവരങ്ങളും റിപ്പോർട്ട് ലഭ്യമാക്കുന്നു.
NCMEC-യുമായി ഞങ്ങൾ പങ്കിടുന്ന CSAM-ന്റെ ഹാഷുകളുടെ എണ്ണത്തെക്കുറിച്ചുള്ള വിവരങ്ങളും സുതാര്യതാ റിപ്പോർട്ടിൽ ഉൾപ്പെടുന്നു. ഈ ഹാഷുകൾ വലിയ തോതിൽ CSAM-കളെ തിരിച്ചറിയാൻ മറ്റ് പ്ലാറ്റ്ഫോമുകളെ സഹായിക്കുന്നു. CSAM-നെ ചെറുക്കാനുള്ള ശ്രമത്തിന് ഞങ്ങൾക്കും ഇൻഡസ്ട്രിയിലെ മറ്റുള്ളവർക്കും സഹായിക്കാനാകുന്ന ഒരു പ്രധാന മാർഗ്ഗമാണ് NCMEC ഹാഷ് ഡാറ്റാബേസിലേക്ക് സംഭാവന ചെയ്യുന്നത്, കാരണം ഉള്ളടക്കം വീണ്ടും പ്രചാരത്തിൽ എത്തുന്നത് കുറയ്ക്കാനും ദുരുപയോഗത്തിനിരയായ കുട്ടികൾ വീണ്ടും ഇരയാകാനുള്ള സാഹചര്യം ഒഴിവാക്കാനും ഇത് സഹായിക്കുന്നു.
ഞങ്ങളുടെ ഉൽപ്പന്നങ്ങളിലെ അനുചിതമായ പെരുമാറ്റം റിപ്പോർട്ട് ചെയ്യുക
ചൂഷണം ചെയ്യാൻ മാനസികമായി പാകപ്പെടുത്തൽ, ലൈംഗികാതിക്രമം, മനുഷ്യക്കടത്ത്, കുട്ടികളോടുള്ള മറ്റ് തരത്തിലുള്ള ലൈംഗിക ചൂഷണം എന്നിവയിൽ നിന്ന് ഞങ്ങളുടെ ഉൽപ്പന്നങ്ങൾ ഉപയോഗിക്കുന്ന കുട്ടികളെ സംരക്ഷിക്കാൻ ഞങ്ങൾ ആഗ്രഹിക്കുന്നു. ഞങ്ങളുടെ ഉൽപ്പന്നങ്ങൾ കുട്ടികൾ ഉപയോഗിക്കുന്നത് സുരക്ഷിതമാക്കുന്നതിനുള്ള ഞങ്ങളുടെ പ്രവർത്തനത്തിന്റെ ഭാഗമായി, കുട്ടികളെ ലൈംഗികമായി ദുരുപയോഗം ചെയ്യുന്നത് ചിത്രീകരിക്കുന്ന ഉള്ളടക്കം, ബന്ധപ്പെട്ട അതോറിറ്റികളുടെ ശ്രദ്ധയിൽ കൊണ്ടുവരാൻ ഉപയോക്താക്കളെ സഹായിക്കുന്നതിന് ഞങ്ങൾ ഉപയോഗപ്രദമായ വിവരങ്ങൾ നൽകുന്നു.
Gmail അല്ലെങ്കിൽ Hangouts പോലുള്ള Google ഉൽപ്പന്നങ്ങളിൽ ഒരു കുട്ടി അപകടത്തിൽപ്പെട്ടതായി ഉപയോക്താക്കൾക്ക് സംശയമുണ്ടെങ്കിൽ, ഈ ഫോം ഉപയോഗിച്ച് അവർക്ക് അത് റിപ്പോർട്ട് ചെയ്യാം. ഉപയോക്താക്കൾക്ക് YouTube-ലെ അനുചിതമായ ഉള്ളടക്കം ഫ്ലാഗ് ചെയ്യാനാകും, കൂടാതെ ഉൽപ്പന്നത്തിൽ നേരിട്ടും സഹായകേന്ദ്രം വഴിയും Google Meet-ൽ ദുരുപയോഗം റിപ്പോർട്ട് ചെയ്യാനുമാകും. ഒരു കുട്ടിയുമായി ബന്ധപ്പെടുന്നതിൽ നിന്ന് ഉപയോക്താക്കളെ എങ്ങനെ ബ്ലോക്ക് ചെയ്യാമെന്നത് ഉൾപ്പെടെ, ഉപദ്രവിക്കൽ, അപമാനിക്കൽ എന്നിവയെ കുറിച്ചുള്ള ആശങ്കകൾ എങ്ങനെ കൈകാര്യം ചെയ്യണം എന്നതിനെക്കുറിച്ചുള്ള വിവരങ്ങളും ഞങ്ങൾ നൽകുന്നു. കുട്ടികളുടെ സുരക്ഷയുമായി ബന്ധപ്പെട്ട ഞങ്ങളുടെ നയങ്ങളെക്കുറിച്ചുള്ള കൂടുതൽ വിവരങ്ങൾക്ക്, YouTube-ന്റെ കമ്മ്യൂണിറ്റി മാർഗ്ഗനിർദ്ദേശങ്ങളും Google സുരക്ഷാ കേന്ദ്രവും കാണുക.
സഖ്യങ്ങളും പ്രോഗാമുകളും
ഓൺലൈനിലൂടെ CSAM കൈമാറ്റം തടസ്സപ്പെടുത്തുകയും കുട്ടികളെ ലൈംഗികമായി ചൂഷണം ചെയ്യുന്നത് തടയുകയും ചെയ്യുന്ന പരിഹാരങ്ങൾ വികസിപ്പിക്കുന്നതിന് കമ്പനികളെയും NGO-കളെയും ഒരുമിച്ച് കൊണ്ടുവരുന്ന Technology Coalition, ICT Coalition, WeProtect Global Alliance, INHOPE, Fair Play Alliance എന്നിവ പോലുള്ള നിരവധി കൂട്ടായ്മകളിലെ സജീവ അംഗമാണ് ഞങ്ങൾ.
സുതാര്യമായ റിപ്പോർട്ടിംഗ് സംബന്ധിച്ച ഉൾക്കാഴ്ചകൾ, ഉൽപ്പന്നത്തിനുള്ളിലെ തിരിച്ചറിയൽ, പ്രവർത്തന പ്രക്രിയകൾ എന്നിവ പോലുള്ള അറിവുകൾ നൽകാനും ടൂളുകൾ പങ്കിടാനും കുട്ടികളുടെ സുരക്ഷ സംബന്ധിച്ച ഗവേഷണത്തിനായും ഞങ്ങൾ ഫണ്ട് ചെയ്യുന്നു.
Google.org വഴിയുള്ള പരസ്യ ഗ്രാന്റുകൾ
INHOPE, ECPAT International എന്നിവ പോലുള്ള കുട്ടികൾക്കെതിരായ ലൈംഗിക അതിക്രമത്തിനും ചൂഷണത്തിനുമെതിരെ പോരാടുന്ന സ്ഥാപനങ്ങൾക്ക് Google.org ഗ്രാന്റുകൾ നൽകുന്നു. കൂടാതെ, 2003 മുതൽ കുട്ടികൾക്കെതിരായ ലൈംഗിക അതിക്രമം റിപ്പോർട്ട് ചെയ്യുന്നതിനുള്ള ഹോട്ട്ലൈനുകളായി പ്രവർത്തിപ്പിക്കുന്ന NGO-കൾക്കും ചാരിറ്റികൾക്കും, പിന്തുണ ആവശ്യമുള്ളവരിലേക്ക് എത്തിച്ചേരാൻ അവരെ സഹായിക്കുന്നതിനായി Google.org ഏകദേശം $90 ദശലക്ഷം സൗജന്യ പരസ്യ ബജറ്റ് നൽകി.
Google Fellow പ്രോഗ്രാം
NCMEC, Thorn എന്നിവ പോലുള്ള കുട്ടികൾക്കെതിരായ ലൈംഗിക അതിക്രമത്തിനെതിരെ പോരാടുന്ന സ്ഥാപനങ്ങളിലെ സാങ്കേതിക ഫെലോഷിപ്പുകൾക്ക് ഞങ്ങൾ ഫണ്ട് ചെയ്യുന്നു. കൂടാതെ, കുട്ടികൾക്കെതിരായ ഓൺലൈൻ കുറ്റകൃത്യങ്ങൾ അന്വേഷിക്കുന്ന എൻഫോഴ്സ്മെന്റ് ഉദ്യോഗസ്ഥർക്ക് Crimes Against Children Conference, National Law Enforcement Training on Child Exploitation എന്നിവ പോലുള്ള ഫോറങ്ങളിലൂടെ Google പരിശീലനം ലഭ്യമാക്കുന്നു.