ഓൺലൈനിൽ കുട്ടികൾക്കെതിരായ ലൈംഗിക അതിക്രമത്തിനും ചൂഷണത്തിനുമെതിരായ പോരാട്ടത്തിന് ഞങ്ങൾ വളരെയധികം സമയവും പണവും ചെലവഴിക്കുന്നു. ഞങ്ങളുടെ പ്ലാറ്റ്‌ഫോമുകളിലെ കുറ്റകൃത്യങ്ങൾ കണ്ടെത്താനും അവയിൽ നിന്ന് പിന്തിരിപ്പിക്കാനും റിപ്പോർട്ട് ചെയ്യാനും ഞങ്ങളുടെ ഉടമസ്ഥതയിലുള്ള സാങ്കേതികവിദ്യ ഉപയോഗിക്കുകയും ചെയ്യുന്നു.

ഞങ്ങളുടെ സാങ്കേതിക വൈദഗ്ദ്ധ്യം പങ്കിടാനും CSAM-നെതിരെ പോരാടാൻ സ്ഥാപനങ്ങളെ സഹായിക്കുന്നതിന് ടൂളുകൾ വികസിപ്പിച്ച് പങ്കിടാനുമുള്ള പ്രോഗ്രാമുകളിൽ NGO-കളുമായും ഇൻഡസ്ട്രികളുമായും ഞങ്ങൾ പങ്കാളികളാകുന്നു.

കുട്ടികൾക്കുള്ള ഞങ്ങളുടെ സുരക്ഷാ ടൂൾകിറ്റിനെക്കുറിച്ച് ഇവിടെ കൂടുതലറിയുക.

ഞങ്ങളുടെ സ്വന്തം പ്ലാറ്റ്‌ഫോമുകളിലും സേവനങ്ങളിലും ദുരുപയോഗം തടയാനുള്ള പോരാട്ടം

ഞങ്ങളുടെ സേവനങ്ങളിൽ കുട്ടികൾക്കെതിരായ ലൈംഗിക അതിക്രമത്തിനെതിരെയും ചൂഷണത്തിനെതിരെയും പോരാടാൻ തുടക്കം മുതൽ Google പ്രതിജ്ഞാബദ്ധമാണ്. കുട്ടികളെ ലൈംഗികമായി ചൂഷണം ചെയ്യുന്ന ഉള്ളടക്കവും പെരുമാറ്റവും തടയാനും കണ്ടെത്താനും നീക്കം ചെയ്യാനും റിപ്പോർട്ട് ചെയ്യാനും ഞങ്ങൾ ഗണ്യമായ ഉറവിടങ്ങളും സാങ്കേതികവിദ്യയും ആളുകളെയും സമയവും നീക്കിവയ്ക്കുന്നു.

ഞങ്ങൾ എന്താണ് ചെയ്യുന്നത്?

ദുരുപയോഗം തടയൽ

ദുരുപയോഗം തടയൽ


ഞങ്ങളുടെ ഉൽപ്പന്നങ്ങൾ കുട്ടികൾക്ക് ഉപയോഗിക്കാൻ സുരക്ഷിതമാണെന്ന് ഉറപ്പാക്കുന്നതിലൂടെ, ദുരുപയോഗം ഉണ്ടാകുന്നത് തടയാൻ ഞങ്ങൾ ലക്ഷ്യമിടുന്നു. വർദ്ധിച്ച് വരുന്ന ഭീഷണികളും അത് തടയാനുള്ള പുതിയ വഴികളും മനസ്സിലാക്കുന്നതിന് ഞങ്ങൾ ലഭ്യമായ എല്ലാ ഉൾക്കാഴ്‌ചകളും ഗവേഷണങ്ങളും ഉപയോഗിക്കുന്നു. നിയമവിരുദ്ധമായ CSAM-ൽ മാത്രമല്ല, കുട്ടികളെ ലൈംഗികമായി ദുരുപയോഗം ചെയ്യുന്നതിനെ പ്രോത്സാഹിപ്പിക്കുകയും അപകടപ്പെടുത്തുകയും ചെയ്യുന്ന എല്ലാ ഉള്ളടക്കങ്ങളിലും ഞങ്ങൾ നടപടിയെടുക്കുന്നു.

കണ്ടെത്തുന്നു, റിപ്പോർട്ട് ചെയ്യുന്നു

കണ്ടെത്തുന്നു, റിപ്പോർട്ട് ചെയ്യുന്നു


ഒരു ചിത്രത്തിനോ വീഡിയോയ്‌ക്കോ വേണ്ടി ഒരു "ഹാഷ്" അല്ലെങ്കിൽ തനതായ ഡിജിറ്റൽ ഫിംഗർപ്രിന്റ് സൃഷ്ടിക്കുന്ന മെഷീൻ ലേണിംഗ് ക്ലാസിഫയറുകളും ഹാഷ്-മാച്ചിംഗ് സാങ്കേതികവിദ്യയും ഉൾപ്പെടെ, പരിശീലനം ലഭിച്ച സ്പെഷ്യലിസ്റ്റ് ടീമുകളും അത്യാധുനിക സാങ്കേതികവിദ്യയും ഉപയോഗിച്ച് ഞങ്ങൾ CSAM തിരിച്ചറിഞ്ഞ് റിപ്പോർട്ട് ചെയ്യുന്നു, അതിനാൽ ഇത് അറിയപ്പെടുന്ന CSAM-ന്റെ ഹാഷുകളുമായി താരതമ്യപ്പെടുത്താവുന്നതാണ്. ഞങ്ങൾ CSAM കണ്ടെത്തുമ്പോൾ, അത് ലോകമെമ്പാടുമുള്ള നിയമ നിർവ്വഹണ ഏജൻസികളുമായി സമ്പർക്കം പുലർത്തുന്ന National Center for Missing and Exploited Children-ൽ (NCMEC) റിപ്പോർട്ട് ചെയ്യുന്നു.

ആഗോളതലത്തിൽ സഹകരിക്കുന്നു

ആഗോളതലത്തിൽ സഹകരിക്കുന്നു


കുട്ടികൾക്കെതിരായ ഓൺലൈൻ ലൈംഗിക അതിക്രമം ചെറുക്കാനുള്ള ഞങ്ങളുടെ ശ്രമങ്ങളിൽ NCMEC-യുമായും ആഗോളതലത്തിൽ മറ്റ് സംഘടനകളുമായും ഞങ്ങൾ സഹകരിക്കുന്നു. ഈ ശ്രമങ്ങളുടെ ഭാഗമായി, കുട്ടികൾക്കെതിരായ ലൈംഗിക അതിക്രമത്തിന്റെയും ചൂഷണത്തിന്റെയും മാറിമാറി വരുന്ന സ്വഭാവത്തെ കുറിച്ചുള്ള ഞങ്ങളുടെ കൂട്ടായ ധാരണ വളർത്താനും അതിലേക്ക് സംഭാവന ചെയ്യാനും സഹായിക്കുന്നതിന് NGO-കളുമായും വ്യവസായ കൂട്ടായ്മകളുമായും ഞങ്ങൾ ശക്തമായ പങ്കാളിത്തം സ്ഥാപിക്കുന്നു.

ഞങ്ങൾ അത് എങ്ങനെയാണ് ചെയ്യുന്നത്?

Search-ൽ കുട്ടികൾക്കെതിരായ ലൈംഗിക അതിക്രമം തടയുന്നതിന് എതിരെയുള്ള പോരാട്ടം

Search-ൽ കുട്ടികൾക്കെതിരായ ലൈംഗിക അതിക്രമം തടയുന്നതിന് എതിരെയുള്ള പോരാട്ടം


വിവരങ്ങൾ കണ്ടെത്തുന്നത് Google Search എളുപ്പമാക്കുന്നു, എന്നാൽ നിയമവിരുദ്ധമായ ഉള്ളടക്കമോ കുട്ടികളെ ലൈംഗികമായി ചൂഷണം ചെയ്യുന്ന ഉള്ളടക്കമോ Search-ൽ കാണിക്കാൻ ഞങ്ങൾ ഒരിക്കലും ആഗ്രഹിക്കുന്നില്ല. കുട്ടികളെ ലൈംഗികമായി ദുരുപയോഗിക്കുന്ന ഉള്ളടക്കത്തിലേക്കോ കുട്ടികളെ ലൈംഗികമായി ഇരയാക്കുന്നതോ അപായപ്പെടുത്തുന്നതോ ചൂഷണം ചെയ്യുന്നതോ ആയ ഉള്ളടക്കത്തിലേക്കോ നയിക്കുന്ന തിരയൽ ഫലങ്ങൾ ബ്ലോക്ക് ചെയ്യുക എന്നുള്ളത് ഞങ്ങളുടെ നയമാണ്. വർദ്ധിച്ച് വരുന്ന ഇത്തരം ഭീഷണികളെ ചെറുക്കാൻ ഞങ്ങളുടെ ആൽഗരിതങ്ങൾ നിരന്തരം അപ്ഡേറ്റ് ചെയ്യുകയാണ്.

CSAM ഉള്ളടക്കം തേടുന്നുവെന്ന് മനസ്സിലാക്കുന്ന തിരയലുകൾ കണ്ടെത്താൻ ഞങ്ങൾ അധിക പരിരക്ഷ നൽകുന്നു. CSAM-ഉം മുതിർന്നവർക്കുള്ള ലൈംഗികത പ്രകടമാക്കുന്ന ഉള്ളടക്കം സംബന്ധിച്ച ചോദ്യങ്ങളും തേടുന്നതാണ് തിരയൽ പദമെങ്കിൽ, പ്രായപൂർത്തിയായവർക്കുള്ള ലൈംഗികത സംബന്ധിച്ച തിരയൽ ഫലങ്ങൾ ഞങ്ങൾ ഫിൽട്ടർ ചെയ്യുന്നു, കുട്ടികളും ലൈംഗിക ഉള്ളടക്കവും തമ്മിലുള്ള ബന്ധം തകർക്കാൻ, കുട്ടികൾ ഉൾപ്പെടുന്ന ചിത്രങ്ങൾ Search നൽകില്ല. പല രാജ്യങ്ങളിലും, CSAM-മായി ബന്ധപ്പെട്ട ചോദ്യങ്ങൾ ഉന്നയിക്കുന്ന ഉപയോക്താക്കൾക്ക്, യുകെയിലെ Internet Watch Foundation, Canadian Centre for Child Protection, കൊളംബിയയിലെ Te Protejo പോലുള്ള വിശ്വസനീയമായ സ്ഥാപനങ്ങളിലേക്ക് ഈ ഉള്ളടക്കം എങ്ങനെ റിപ്പോർട്ട് ചെയ്യാം എന്നതിനെക്കുറിച്ചുള്ള വിവരങ്ങൾക്കൊപ്പം, കുട്ടികളെ ലൈംഗികമായി ദുരുപയോഗിക്കുന്ന ഉള്ളടക്കം നിയമവിരുദ്ധമാണെന്ന മുന്നറിയിപ്പ് നൽകുന്നു. ഈ മുന്നറിയിപ്പുകൾ കാണിക്കുമ്പോൾ, ഉപയോക്താക്കൾ ഇത്തരം ഉള്ളടക്കങ്ങൾ തിരയുന്നത് തുടരാനുള്ള സാധ്യത കുറവാണ്.

ചൂഷണം ചെയ്യുന്ന വീഡിയോകളും ഉള്ളടക്കങ്ങളും ചെറുക്കാനുള്ള YouTube-ന്റെ പ്രവർത്തനം

ചൂഷണം ചെയ്യുന്ന വീഡിയോകളും ഉള്ളടക്കങ്ങളും ചെറുക്കാനുള്ള YouTube-ന്റെ പ്രവർത്തനം


കുട്ടികളെ ലൈംഗികമായി ഉപയോഗിക്കുന്നതോ ചൂഷണം ചെയ്യുന്നതോ ആയ YouTube-ലെ വീഡിയോകൾ, പ്ലേലിസ്റ്റുകൾ, ലഘുചിത്രങ്ങൾ, കമന്റുകൾ എന്നിവയ്‌ക്കെതിരെ ഞങ്ങൾക്ക് എല്ലായ്‌പ്പോഴും വ്യക്തമായ നയങ്ങളുണ്ട്. ഈ നയങ്ങളുടെ ലംഘനങ്ങൾ മുൻ‌കൂട്ടി കണ്ടെത്തുന്നതിന് ഞങ്ങൾ മെഷീൻ ലേണിംഗ് സിസ്റ്റങ്ങൾ ഉപയോഗിക്കുന്നു, കൂടാതെ ഞങ്ങളുടെ സിസ്റ്റങ്ങൾ കണ്ടെത്തിയതോ ഉപയോക്താക്കളും ഞങ്ങളുടെ വിശ്വസനീയ ഫ്ലാഗർമാരും ഫ്ലാഗ് ചെയ്യുന്നതോ ആയ ലംഘനങ്ങൾ വേഗത്തിൽ നീക്കം ചെയ്യാൻ ലോകമെമ്പാടും ഞങ്ങൾക്ക് മനുഷ്യ അവലോകകരുമുണ്ട്.

പ്രായപൂർത്തിയാകാത്തവരെ ഫീച്ചർ ചെയ്യുന്ന ചില ഉള്ളടക്കം ഞങ്ങളുടെ നയങ്ങൾ ലംഘിക്കുന്നില്ലെങ്കിലും, പ്രായപൂർത്തിയാകാത്തവർ ഓൺലൈനിലോ ഓഫ്‌ലൈനിലോ ചൂഷണത്തിന് വിധേയരാകാൻ സാധ്യതയുണ്ടെന്ന് ഞങ്ങൾ തിരിച്ചറിയുന്നു. അതിനാലാണ് ഈ നയങ്ങൾ നടപ്പിലാക്കുമ്പോൾ ഞങ്ങൾ കൂടുതൽ ജാഗ്രത പുലർത്തുന്നത്. പ്രായപൂർത്തിയാകാത്തവരെ അപകടത്തിലാക്കിയേക്കാവുന്ന വീഡിയോകൾ മുൻ‌കൂട്ടി തിരിച്ചറിയാനും തത്സമയ ഫീച്ചറുകൾ നിയന്ത്രിക്കൽ, കമന്റുകൾ പ്രവർത്തനരഹിതമാക്കൽ, വീഡിയോ നിർദ്ദേശങ്ങൾ പരിമിതപ്പെടുത്തൽ എന്നിവ പോലുള്ള ഞങ്ങളുടെ പരിരക്ഷകൾ വേണ്ടവിധം പ്രയോഗിക്കാനും ഞങ്ങളുടെ മെഷീൻ ലേണിംഗ് സിസ്റ്റങ്ങൾ സഹായിക്കുന്നു.

ഞങ്ങളുടെ CSAM സുതാര്യതാ റിപ്പോർട്ട്

ഞങ്ങളുടെ CSAM സുതാര്യതാ റിപ്പോർട്ട്


2021-ൽ, കുട്ടികളെ ലൈംഗികമായി ദുരുപയോഗം ചെയ്യുന്നത് ചിത്രീകരിക്കുന്ന ഓൺലൈൻ ഉള്ളടക്കം ചെറുക്കാനുള്ള Google-ന്റെ ശ്രമങ്ങളെക്കുറിച്ചുള്ള ഒരു സുതാര്യതാ റിപ്പോർട്ട് ഞങ്ങൾ അവതരിപ്പിച്ചിട്ടുണ്ട്, ഇത് എത്ര റിപ്പോർട്ടുകൾ NCMEC-യിൽ ഞങ്ങൾ സൃഷ്ടിച്ചിട്ടുണ്ടെന്ന് വ്യക്തമാക്കുന്നു. YouTube-ലെ ഞങ്ങളുടെ ശ്രമങ്ങൾ, Search-ൽ നിന്ന് CSAM ഫലങ്ങൾ കണ്ടെത്തി നീക്കം ചെയ്യുന്നത് എങ്ങനെയാണ്, ഞങ്ങളുടെ സേവനങ്ങളിലുടനീളമുള്ള CSAM ലംഘനങ്ങൾ കാരണം എത്ര അക്കൗണ്ടുകൾ പ്രവർത്തനരഹിതമാക്കി എന്നീ വിവരങ്ങളും റിപ്പോർട്ട് ലഭ്യമാക്കുന്നു.

NCMEC-യുമായി ഞങ്ങൾ പങ്കിടുന്ന CSAM-ന്റെ ഹാഷുകളുടെ എണ്ണത്തെക്കുറിച്ചുള്ള വിവരങ്ങളും സുതാര്യതാ റിപ്പോർട്ടിൽ ഉൾപ്പെടുന്നു. ഈ ഹാഷുകൾ വലിയ തോതിൽ CSAM-കളെ തിരിച്ചറിയാൻ മറ്റ് പ്ലാറ്റ്‌ഫോമുകളെ സഹായിക്കുന്നു. CSAM-നെ ചെറുക്കാനുള്ള ശ്രമത്തിന് ഞങ്ങൾക്കും ഇൻഡസ്ട്രിയിലെ മറ്റുള്ളവർക്കും സഹായിക്കാനാകുന്ന ഒരു പ്രധാന മാർഗ്ഗമാണ് NCMEC ഹാഷ് ഡാറ്റാബേസിലേക്ക് സംഭാവന ചെയ്യുന്നത്, കാരണം ഉള്ളടക്കം വീണ്ടും പ്രചാരത്തിൽ എത്തുന്നത് കുറയ്ക്കാനും ദുരുപയോഗത്തിനിരയായ കുട്ടികൾ വീണ്ടും ഇരയാകാനുള്ള സാഹചര്യം ഒഴിവാക്കാനും ഇത് സഹായിക്കുന്നു.

ഞങ്ങളുടെ ഉൽപ്പന്നങ്ങളിലെ അനുചിതമായ പെരുമാറ്റം റിപ്പോർട്ട് ചെയ്യുക

ഞങ്ങളുടെ ഉൽപ്പന്നങ്ങളിലെ അനുചിതമായ പെരുമാറ്റം റിപ്പോർട്ട് ചെയ്യുക


ചൂഷണം ചെയ്യാൻ മാനസികമായി പാകപ്പെടുത്തൽ, ലൈംഗികാതിക്രമം, മനുഷ്യക്കടത്ത്, കുട്ടികളോടുള്ള മറ്റ് തരത്തിലുള്ള ലൈംഗിക ചൂഷണം എന്നിവയിൽ നിന്ന് ഞങ്ങളുടെ ഉൽപ്പന്നങ്ങൾ ഉപയോഗിക്കുന്ന കുട്ടികളെ സംരക്ഷിക്കാൻ ഞങ്ങൾ ആഗ്രഹിക്കുന്നു. ഞങ്ങളുടെ ഉൽപ്പന്നങ്ങൾ കുട്ടികൾ ഉപയോഗിക്കുന്നത് സുരക്ഷിതമാക്കുന്നതിനുള്ള ഞങ്ങളുടെ പ്രവർത്തനത്തിന്റെ ഭാഗമായി, കുട്ടികളെ ലൈംഗികമായി ദുരുപയോഗം ചെയ്യുന്നത് ചിത്രീകരിക്കുന്ന ഉള്ളടക്കം, ബന്ധപ്പെട്ട അതോറിറ്റികളുടെ ശ്രദ്ധയിൽ കൊണ്ടുവരാൻ ഉപയോക്താക്കളെ സഹായിക്കുന്നതിന് ഞങ്ങൾ ഉപയോഗപ്രദമായ വിവരങ്ങൾ നൽകുന്നു.

Gmail അല്ലെങ്കിൽ Hangouts പോലുള്ള Google ഉൽപ്പന്നങ്ങളിൽ ഒരു കുട്ടി അപകടത്തിൽപ്പെട്ടതായി ഉപയോക്താക്കൾക്ക് സംശയമുണ്ടെങ്കിൽ, ഈ ഫോം ഉപയോഗിച്ച് അവർക്ക് അത് റിപ്പോർട്ട് ചെയ്യാം. ഉപയോക്താക്കൾക്ക് YouTube-ലെ അനുചിതമായ ഉള്ളടക്കം ഫ്ലാഗ് ചെയ്യാനാകും, കൂടാതെ ഉൽപ്പന്നത്തിൽ നേരിട്ടും സഹായകേന്ദ്രം വഴിയും Google Meet-ൽ ദുരുപയോഗം റിപ്പോർട്ട് ചെയ്യാനുമാകും. ഒരു കുട്ടിയുമായി ബന്ധപ്പെടുന്നതിൽ നിന്ന് ഉപയോക്താക്കളെ എങ്ങനെ ബ്ലോക്ക് ചെയ്യാമെന്നത് ഉൾപ്പെടെ, ഉപദ്രവിക്കൽ, അപമാനിക്കൽ എന്നിവയെ കുറിച്ചുള്ള ആശങ്കകൾ എങ്ങനെ കൈകാര്യം ചെയ്യണം എന്നതിനെക്കുറിച്ചുള്ള വിവരങ്ങളും ഞങ്ങൾ നൽകുന്നു. ഞങ്ങളുടെ കുട്ടികളുടെ സുരക്ഷാ നയങ്ങളെക്കുറിച്ചുള്ള കൂടുതൽ വിവരങ്ങൾക്ക്, YouTube-ന്റെ കമ്മ്യൂണിറ്റി മാർഗ്ഗനിർദ്ദേശങ്ങളും Google സുരക്ഷാ കേന്ദ്രവും കാണുക.

കുട്ടികൾക്കെതിരായ ലൈംഗിക അതിക്രമത്തിനെതിരെ പോരാടാനുള്ള ടൂളുകൾ വികസിപ്പിക്കുന്നു, പങ്കിടുന്നു

കുട്ടികളെ പരിരക്ഷിക്കാനും അതിന് മറ്റുള്ളവരെ സഹായിക്കാനും ഞങ്ങളുടെ സാങ്കേതിക വൈദഗ്ധ്യവും നൂതന രീതികളും ഉപയോഗിക്കുന്നു. യോഗ്യതയുള്ള സ്ഥാപനങ്ങൾക്ക് തങ്ങളുടെ പ്രവർത്തനങ്ങൾ മികച്ചതാക്കാനും വേഗമേറിയതാക്കാനും സുരക്ഷിതമാക്കാനും ഞങ്ങളുടെ കുട്ടികളുടെ സുരക്ഷാ ടൂളുകൾ ഉപയോഗിക്കാൻ താൽപ്പര്യമുള്ള സ്ഥാപനങ്ങളെ അവയ്ക്ക് അപേക്ഷിക്കാൻ പ്രോത്സാഹിപ്പിക്കാനും ഞങ്ങളുടെ അത്യാധുനിക സാങ്കേതികവിദ്യ നിരക്കില്ലാതെ ലഭ്യമാക്കുന്നു.

ഉള്ളടക്ക സുരക്ഷാ API

മുമ്പൊരിക്കലും കണ്ടിട്ടില്ലാത്ത CSAM ചിത്രങ്ങൾ മുൻ‌കൂട്ടി തിരിച്ചറിയാൻ ഞങ്ങളെ അനുവദിക്കുന്നതിന് Google നിരവധി വർഷങ്ങളായി മെഷീൻ ലേണിംഗ് ക്ലാസിഫയറുകൾ മെച്ചപ്പെടുത്താൻ പ്രവർത്തിക്കുന്നു, അതിനാൽ അത് അവലോകനം ചെയ്ത് CSAM ആയി സ്ഥിരീകരിക്കുകയാണെങ്കിൽ, കഴിയുന്നത്ര വേഗത്തിൽ അത് നീക്കം ചെയ്യാനും റിപ്പോർട്ട് ചെയ്യാനുമാകും. ഈ സാങ്കേതികവിദ്യ ഉള്ളടക്ക സുരക്ഷാ API-യെ ശക്തിപ്പെടുത്തുന്നു, അധിക്ഷേപകരമാകാൻ സാധ്യതയുള്ള ഉള്ളടക്കം അവലോകനം ചെയ്യുന്നതിനായി തരംതിരിക്കാനും അവയ്ക്ക് മുൻഗണന നൽകാനും സ്ഥാപനങ്ങളെ സഹായിക്കുന്നു. 2021-ന്റെ ആദ്യ പകുതിയിൽ, 6 ബില്യണിലധികം ചിത്രങ്ങൾ തരംതിരിക്കാൻ പങ്കാളികൾ ഉള്ളടക്ക സുരക്ഷാ API ഉപയോഗിച്ചു, പ്രശ്‌നമുള്ള ഉള്ളടക്കം വേഗത്തിലും കൂടുതൽ കൃത്യതയോടെയും തിരിച്ചറിയാൻ ഇത് അവരെ സഹായിക്കുന്നു, അതുവഴി അവർക്ക് അതോറിറ്റികളിലേക്ക് അവ റിപ്പോർട്ട് ചെയ്യാനാകും.

CSAI പൊരുത്തം

2014-ൽ, YouTube എഞ്ചിനീയർമാർ ഞങ്ങളുടെ സേവനങ്ങളിലെ മുമ്പ് തിരിച്ചറിഞ്ഞ CSAM വീഡിയോകൾ ടാഗ് ചെയ്യാനും നീക്കം ചെയ്യാനും സാങ്കേതികവിദ്യ വികസിപ്പിക്കുകയും ബാധകമാക്കുകയും ചെയ്തു. വീഡിയോകളിൽ മുമ്പ് തിരിച്ചറിഞ്ഞ, കുട്ടികളെ ലൈംഗികമായി ദുരുപയോഗം ചെയ്യുന്നത് ചിത്രീകരിക്കുന്ന ഉള്ളടക്കം വീണ്ടും അപ്‌ലോഡ് ചെയ്യുന്നത് തിരിച്ചറിയാൻ സഹായിക്കുന്ന API ആയ CSAI പൊരുത്തം വഴി ഞങ്ങൾ മറ്റുള്ളവരുമായി ഈ സാങ്കേതികവിദ്യ പങ്കിടുന്നു. ഞങ്ങളുടെ ഡാറ്റാബേസിലെ തിരിച്ചറിഞ്ഞിട്ടുള്ള അധിക്ഷേപകരമായ ഉള്ളടക്കവുമായി പൊരുത്തപ്പെടുന്നവ തിരിച്ചറിയാൻ സഹായിക്കുന്നതിന് NGO-കളും കമ്പനികളും CSAI പൊരുത്തം ഉപയോഗിക്കുന്നു, അതിനാൽ അവർക്ക് പ്രാദേശിക നിയമങ്ങൾക്കും നിയന്ത്രണങ്ങൾക്കും അനുസൃതമായി അതിന്മേൽ ഉത്തരവാദിത്തത്തോടെ പ്രവർത്തിക്കാനാകും.

സഖ്യങ്ങളും പ്രോഗാമുകളും

ഓൺലൈനിലൂടെ CSAM കൈമാറ്റം തടസ്സപ്പെടുത്തുകയും കുട്ടികളെ ലൈംഗികമായി ചൂഷണം ചെയ്യുന്നത് തടയുകയും ചെയ്യുന്ന പരിഹാരങ്ങൾ വികസിപ്പിക്കുന്നതിന് കമ്പനികളെയും NGO-കളെയും ഒരുമിച്ച് കൊണ്ടുവരുന്ന Technology Coalition, ICT Coalition, WeProtect Global Alliance, INHOPE, Fair Play Alliance എന്നിവ പോലുള്ള നിരവധി കൂട്ടായ്മകളിലെ സജീവ അംഗമാണ് ഞങ്ങൾ.

സുതാര്യമായ റിപ്പോർട്ടിംഗ് സംബന്ധിച്ച ഉൾ‍ക്കാഴ്‌ചകൾ, ഉൽപ്പന്നത്തിനുള്ളിലെ തിരിച്ചറിയൽ, പ്രവർത്തന പ്രക്രിയകൾ എന്നിവ പോലുള്ള അറിവുകൾ നൽകാനും ടൂളുകൾ പങ്കിടാനും കുട്ടികളുടെ സുരക്ഷ സംബന്ധിച്ച ഗവേഷണത്തിനായും ഞങ്ങൾ ഫണ്ട് ചെയ്യുന്നു.

ഇനിപ്പറയുന്നതുമായുള്ള പങ്കാളിത്തത്തോടെ

Google.org വഴിയുള്ള പരസ്യ ഗ്രാന്റുകൾ

Google.org വഴിയുള്ള പരസ്യ ഗ്രാന്റുകൾ


INHOPE, ECPAT International എന്നിവ പോലുള്ള കുട്ടികൾക്കെതിരായ ലൈംഗിക അതിക്രമത്തിനും ചൂഷണത്തിനുമെതിരെ പോരാടുന്ന സ്ഥാപനങ്ങൾക്ക് Google.org ഗ്രാന്റുകൾ നൽകുന്നു. കൂടാതെ, 2003 മുതൽ കുട്ടികൾക്കെതിരായ ലൈംഗിക അതിക്രമം റിപ്പോർട്ട് ചെയ്യുന്നതിനുള്ള ഹോട്ട്‌ലൈനുകളായി പ്രവർത്തിപ്പിക്കുന്ന NGO-കൾക്കും ചാരിറ്റികൾക്കും, പിന്തുണ ആവശ്യമുള്ളവരിലേക്ക് എത്തിച്ചേരാൻ അവരെ സഹായിക്കുന്നതിനായി Google.org ഏകദേശം $90 ദശലക്ഷം സൗജന്യ പരസ്യ ബജറ്റ് നൽകി.

Google Fellow പ്രോഗ്രാം

Google Fellow പ്രോഗ്രാം


NCMEC, Thorn എന്നിവ പോലുള്ള കുട്ടികൾക്കെതിരായ ലൈംഗിക അതിക്രമത്തിനെതിരെ പോരാടുന്ന സ്ഥാപനങ്ങളിലെ സാങ്കേതിക ഫെലോഷിപ്പുകൾക്ക് ഞങ്ങൾ ഫണ്ട് ചെയ്യുന്നു. കൂടാതെ, കുട്ടികൾക്കെതിരായ ഓൺലൈൻ കുറ്റകൃത്യങ്ങൾ അന്വേഷിക്കുന്ന എൻഫോഴ്‌സ്മെന്റ് ഉദ്യോഗസ്ഥർക്ക് Crimes Against Children Conference, National Law Enforcement Training on Child Exploitation എന്നിവ പോലുള്ള ഫോറങ്ങളിലൂടെ Google പരിശീലനം ലഭ്യമാക്കുന്നു.