మేము ఆన్‌లైన్‌లో పిల్లలపై లైంగిక చర్యలు, పిల్లలపై దాడికి వ్యతిరేకంగా పోరాడటానికి భారీగా పెట్టుబడి పెట్టాము, మా ప్లాట్‌ఫామ్‌లలో నేరాలను నిరోధించడానికి, గుర్తించడానికి, తీసివేయడానికి, రిపోర్ట్ చేయడానికి మా యాజమాన్య టెక్నాలజీని ఉపయోగిస్తాము.

CSAMతో పోరాడటంలో సంస్థలకు సహాయపడటం కోసం మేము మా సాంకేతిక నైపుణ్యాన్నిషేర్ చేయడానికి, టూల్స్‌ను డెవలప్ చేసి షేర్ చేయడానికి, NGOలు, పరిశ్రమలతో ప్రోగ్రామ్‌లలో పార్ట్‌నర్‌గా ఉంటాము.

మా పిల్లల భద్రతా టూల్‌కిట్ గురించి ఇక్కడ మరింత తెలుసుకోండి.

మా స్వంత ప్లాట్‌ఫారమ్‌లు, సర్వీస్‌లకు చెందిన దుర్వినియోగం

Google మా తొలి రోజుల నుండి మా సర్వీస్‌లలో పిల్లల లైంగిక చర్యలు, అలాగే పిల్లలపై దాడికి వ్యతిరేకంగా పోరాడటానికి కట్టుబడి ఉంది. పిల్లలపై లైంగిక దాడికి సంబంధించిన కంటెంట్, ఇంకా ప్రవర్తనను నిరోధించడానికి, గుర్తించడానికి, తీసివేయడానికి, అలాగే రిపోర్ట్ చేయడానికి మేము ముఖ్యమైన సోర్స్‌లకు సంబంధించిన-సాంకేతికత, వ్యక్తులను, అలాగే సమయాన్ని వెచ్చిస్తాము.

మేము ఏం చేస్తున్నాం?

దుర్వినియోగాన్ని నివారించడం

దుర్వినియోగాన్ని నివారించడం


మా ప్రోడక్ట్‌లు పిల్లలు ఉపయోగించడానికి సురక్షితంగా ఉన్నాయని నిర్ధారించడం ద్వారా దుర్వినియోగం జరగకుండా నిరోధించడం మా లక్ష్యం. బలోపేతం అవుతున్న బెదిరింపులు, అభ్యంతరకరమైన కొత్త మార్గాలను అర్థం చేసుకోవడానికి మేము అందుబాటులో ఉన్న అన్ని గణాంకాలను, పరిశోధనలను కూడా ఉపయోగిస్తాము. మేము చట్టవిరుద్ధమైన CSAMపై మాత్రమే కాకుండా, పిల్లల లైంగిక దుర్వినియోగాన్ని ప్రోమోట్ చేసే, పిల్లలను ప్రమాదంలో పడేసే విస్తృత కంటెంట్‌పై కూడా చర్య తీసుకుంటాము.

గుర్తించడం రిపోర్ట్ చేయడం

గుర్తించడం రిపోర్ట్ చేయడం


మేము మెషిన్ లెర్నింగ్ క్లాసిఫయర్‌లు, హ్యాష్-మ్యాచింగ్ టెక్నాలజీతో సహా ట్రెయినింగ్ పొందిన స్పెషలిస్ట్ టీమ్‌లతో CSAMని గుర్తించి, రిపోర్ట్ చేస్తాము, ఇది ఇమేజ్ లేదా వీడియో కోసం "హాష్" లేదా ప్రత్యేకమైన డిజిటల్ ఫింగర్‌ప్రింట్‌ను క్రియేట్ చేస్తుంది కాబట్టి దానిని తెలిసిన CSAM హ్యాష్‌లతో పోల్చవచ్చు. మేము CSAMని కనుగొన్నప్పుడు, మేము దానిని నేషనల్ సెంటర్ ఫర్ మిస్సింగ్ అండ్ ఎక్స్‌ప్లోయిటెడ్ చిల్డ్రన్ (NCMEC)కి రిపోర్ట్ చేస్తాము, ఇది ప్రపంచవ్యాప్తంగా ఉన్న చట్టాన్ని అమలు చేసే ప్రభుత్వ ఏజెన్సీలతో అనుసంధానాన్ని కలిగి ఉంటుంది.

ప్రపంచవ్యాప్తంగా పరస్పర సహకారంతో పనిచేయడం

ప్రపంచవ్యాప్తంగా పరస్పర సహకారంతో పనిచేయడం


ఆన్‌లైన్‌లో పిల్లలపై లైంగిక చర్యలను ఎదుర్కోవడానికి చేసే కృషిలో భాగంగా మేము ప్రపంచవ్యాప్తంగా NCMECతోను, ఇతర సంస్థలతోను పరస్పర సహకారంతో పనిచేస్తాము. ఈ కృషిలో భాగంగా, పిల్లలపై లైంగిక చర్యలు, పిల్లలపై దాడి బలోపేతం చెందుతున్న తీరుతెన్నులపై మాకు ఉమ్మడిగా అవగాహన పెరగడానికి, మేము ఎదిగేందుకు దోహదపడటానికి మేము NGOలు, పరిశ్రమల కొయిలేషన్‌లతో బలమైన భాగస్వామ్యాలను ఏర్పరుస్తాము.

దీనిని మేము ఎలా చేస్తున్నాం?

పిల్లలపై లైంగిక చర్యలపై Seachలో పోరాటం

పిల్లలపై లైంగిక చర్యలపై Seachలో పోరాటం


Google Search సమాచారాన్ని కనుగొనడాన్ని సులభతరం చేస్తుంది, కానీ చట్టవిరుద్ధంగా లేదా లైంగికంగా పిల్లలపై దాడి చేసే కంటెంట్‌ను Searchలో ఉంచాలని మేము ఎప్పటికీ కోరుకోము. పిల్లల లైంగిక అశ్లీల సంబంధిత అంశాలకు దారితీసే సెర్చ్ ఫలితాలను లేదా పిల్లలను లైంగికంగా బాధించే, అపాయం కలిగించే లేదా ఇతరత్రా పిల్లలపై దాడి చేసినట్లు కనిపించే కంటెంట్‌ను బ్లాక్ చేయడం మా పాలసీ. పరిణితి చెందుతున్న ఈ ప్రమాదాలను ఎదుర్కోవడానికి మేము మా అల్గారిథమ్‌లను నిరంతరం అప్‌డేట్ చేస్తున్నాము.

CSAM కంటెంట్‌ను కోరుతున్నట్లు అర్థం చేసుకున్న సెర్చ్‌లకు మేము అదనపు రక్షణను వర్తింపజేస్తాము. సెర్చ్ క్వెరీ CSAMని కోరుతున్నట్లు అనిపిస్తే మేము అందరికీ తగని లైంగిక ఫలితాలను ఫిల్టర్ చేస్తాము; పెద్దవారికి అభ్యంతరకరమైన కంటెంట్‌ని కోరుతున్న క్వెరీల కోసం, పిల్లలు, లైంగిక కంటెంట్‌ల మధ్య అనుబంధాన్ని విచ్ఛిన్నం చేయడానికి, పిల్లలను కలిగి ఉన్న ఇమేజ్‌లను Search అందించదు. అనేక దేశాల్లో, స్పష్టంగా CSAMకి సంబంధించిన క్వెరీలను ఎంటర్ చేసే యూజర్‌లకు పిల్లల లైంగిక అశ్లీల సంబంధిత అంశాలు చట్టవిరుద్ధమని ప్రముఖ హెచ్చరికను చూపిస్తారు; దానితో పాటుగా UKలోని ఇంటర్నెట్ వాచ్ ఫౌండేషన్, కెనడియన్ సెంటర్ ఫర్ చైల్డ్ ప్రొటెక్షన్, కొలంబియాలోని టె ప్రొటెజో వంటి విశ్వసనీయ సంస్థలకు ఈ కంటెంట్‌ను ఎలా రిపోర్ట్ చేయాలనే దానిపై సమాచారం ఉంటుంది. ఈ హెచ్చరికలు చూపబడినప్పుడు, యూజర్‌లు ఈ మెటీరియల్ కోసం వెతకడం కొనసాగించే అవకాశం తక్కువ.

పిల్లలపై దాడికి సంబంధించిన వీడియోలను, కంటెంట్‌ను ఎదుర్కోవడానికి YouTube చేసే కృషి

పిల్లలపై దాడికి సంబంధించిన వీడియోలను, కంటెంట్‌ను ఎదుర్కోవడానికి YouTube చేసే కృషి


YouTubeలో పిల్లలను లైంగికంగా చూపే లేదా పిల్లలపై దాడి చేసే వీడియోలు, ప్లేలిస్ట్‌లు, థంబ్‌నెయిల్స్, కామెంట్‌లకు వ్యతిరేకంగా మేము ఎల్లప్పుడూ స్పష్టమైన పాలసీలను కలిగి ఉన్నాము. మేము ఈ పాలసీల ఉల్లంఘనలను ముందస్తుగా గుర్తించడానికి మెషిన్ లెర్నింగ్ సిస్టమ్‌లను ఉపయోగిస్తాము, మా సిస్టమ్‌లు గుర్తించిన లేదా యూజర్‌లు, మా విశ్వసనీయ ఫ్లాగ్‌గర్‌లచే ఫ్లాగ్ చేయబడిన ఉల్లంఘనలను త్వరగా తొలగించే మానవ రివ్యూవర్‌లు ప్రపంచవ్యాప్తంగా ఉంటారు.

మైనర్‌లను ఫీచర్ చేసే కొంత కంటెంట్ మా పాలసీలను ఉల్లంఘించకపోయినా, మైనర్‌లు ఆన్‌లైన్ లేదా ఆఫ్‌లైన్ దోపిడీకి గురయ్యే ప్రమాదం ఉందని మేము గుర్తిస్తాము. అందుకే ఈ పాలసీలను అమలు చేసేటప్పుడు మేము అదనపు జాగ్రత్తతో కూడిన విధానాన్ని అనుసరిస్తాము. మా మెషీన్ లెర్నింగ్ సిస్టమ్‌లు మైనర్‌లను ప్రమాదంలో పడేయగల వీడియోలను ముందస్తుగా గుర్తించడంలో సహాయపడతాయి, లైవ్ ఫీచర్‌లను పరిమితం చేయడం, కామెంట్‌లను డిజేబుల్ చేయడం, వీడియో సిఫార్సులను పరిమితం చేయడం వంటి మా రక్షణలను స్కేల్‌లో వర్తింపజేస్తాయి.

మా CSAM పారదర్శకత రిపోర్ట్

మా CSAM పారదర్శకత రిపోర్ట్


2021లో, ఆన్‌లైన్‌లో పిల్లలను లైంగికంగా వేధించే కంటెంట్‌ను ఎదుర్కోవడానికి Google చేస్తున్న కృషిపై మేము, NCMECకి మేము ఎన్ని రిపోర్ట్‌లు అందించామో వివరిస్తూ పారదర్శకత రిపోర్ట్‌ను ప్రారంభించాము, . YouTubeలో మా కృషి, మేము Search నుండి CSAM ఫలితాలను ఎలా గుర్తిస్తాము, తీసివేస్తాము, మా సర్వీస్‌లలో CSAM ఉల్లంఘనల వల్ల ఎన్ని ఖాతాలు డిజేబుల్ చేయబడ్డాయి వంటి డేటాను కూడా రిపోర్ట్ అందిస్తుంది.

పారదర్శకత రిపోర్ట్ మేము NCMECతో షేర్ చేసే CSAM హ్యాష్‌ల సంఖ్యకు సంబంధించిన సమాచారాన్ని కూడా కలిగి ఉంటుంది. ఈ హాష్‌లు ఇతర ప్లాట్‌ఫామ్‌లు CSAMని స్కేల్‌లో గుర్తించడంలో సహాయపడతాయి. NCMEC హాష్ డేటాబేస్‌కు సహకారం అందించడం అనేది మేము, పరిశ్రమలోని ఇతరులు CSAMని ఎదుర్కోవడానికి చేసే ప్రయత్నంలో సహాయపడగల ముఖ్యమైన మార్గాలలో ఒకటి, ఎందుకంటే ఇది ఈ సంబంధిత కంటెంట్‌ను తిరిగి పంపడాన్ని, దుర్వినియోగానికి గురైన పిల్లలను తిరిగి బాధితులుగా మార్చడాన్ని తగ్గించడంలో సహాయపడుతుంది.

మా ప్రోడక్ట్‌లలో అనుచిత ప్రవర్తనను రిపోర్ట్ చేయడం

మా ప్రోడక్ట్‌లలో అనుచిత ప్రవర్తనను రిపోర్ట్ చేయడం


మేము మా ప్రోడక్ట్‌లను ఉపయోగించే పిల్లలను గ్రూమింగ్, లైంగిక బెదిరింపు, చిన్నారుల అక్రమ రవాణా, ఇంకా ఇతర రకాలుగా పిల్లలపై లైంగిక దాడి అనుభవించకుండా రక్షించాలనుకుంటున్నాము. పిల్లలు ఉపయోగించగలిగేలా మా ప్రోడక్ట్‌లను సురక్షితంగా ఉంచే మా పనిలో భాగంగా, పిల్లలను లైంగికంగా వేధించే కంటెంట్‌ను సంబంధిత అధికారులకు రిపోర్ట్ చేయడంలో యూజర్‌లకు సహాయపడటానికి మేము ఉపయోగకరమైన సమాచారాన్ని అందిస్తాము.

Gmail లేదా Hangouts వంటి Google ప్రోడక్ట్‌లలో పిల్లలు ప్రమాదంలో పడినట్లు యూజర్‌లకు అనుమానం ఉంటే, వారు ఈ ఫారమ్‌ని ఉపయోగించి రిపోర్ట్ చేయవచ్చు. యూజర్‌లు YouTubeలో అనుచితమైన కంటెంట్‌ను ఫ్లాగ్ చేయవచ్చు, Google Meetలో దుర్వినియోగాన్ని సహాయ కేంద్రం ద్వారాను, అలాగే నేరుగా ప్రోడక్ట్‌లోను రిపోర్ట్ చేయవచ్చు. మేము పిల్లలను కాంటాక్ట్ చేయకుండా యూజర్‌లను ఎలా బ్లాక్ చేయాలనే సమాచారంతో సహా, జులుం చలాయించడం, పీడించటం గురించిన ఆందోళనలను ఎలా ఎదుర్కోవాలనే దానిపై కూడా మేము సమాచారాన్ని అందిస్తాము. మా పిల్లల భద్రతా పాలసీల గురించి మరింత తెలుసుకోవడానికి, YouTube కమ్యూనిటీ గైడ్‌లైన్స్, Google భద్రతా కేంద్రాన్ని చూడండి.

పిల్లలపై లైంగిక చర్యలకు వ్యతిరేకంగా పోరాడటానికి టూల్స్‌ను షేర్ చేయడం అలాగే డెవలప్ చేయడం

పిల్లలను రక్షించడానికి, అలా చేయడంలో ఇతరులకు సపోర్ట్ చేయడానికి మేము మా టెక్నికల్ నైపుణ్యాన్ని, ఆవిష్కరణలను ఉపయోగిస్తాము. మేము మా అత్యాధునిక టెక్నాలజీని వారి ఆపరేషన్స్‌ను మెరుగ్గా, వేగవంతంగా సురక్షితంగా చేయడానికి అర్హత పొందిన సంస్థలకు ఉచితంగా ఆఫర్ చేస్తున్నాము, ఆసక్తిగల సంస్థలను మా పిల్లల భద్రతా టూల్స్‌ను ఉపయోగించడానికి దరఖాస్తు చేయమని ప్రోత్సహిస్తాము.

కంటెంట్ భద్రత API

మునుపెన్నడూ చూడని CSAM ఇమేజ్‌లను చురుగ్గా గుర్తించడానికి మాకు వీలు కల్పించేందుకు, తద్వారా వాటిని రివ్యూ చేసి, అవి CSAMగా నిర్ధారించబడితే, వీలైనంత త్వరగా తీసివేయబడి, రిపోర్ట్ చేయబడాలనే ఉద్దేశ్యంతో, మెషిన్ లెర్నింగ్ క్లాసిఫయర్‌లపై Google చాలా సంవత్సరాలుగా పని చేస్తోంది. ఈ టెక్నాలజీ, కంటెంట్ భద్రత APIని బలోపేతం చేస్తుంది, తద్వారా సంస్థలకు దుర్వినియోగ కంటెంట్ అయ్యే అవకాశం ఉన్న, రివ్యూ చేయాల్సిన కంటెంట్‌ను క్లాసిఫై చేయడంలోనూ, ప్రాధాన్యతను గుర్తించడం లోనూ సహాయం లభిస్తుంది. 2021 మొదటి అర్ధ భాగంలో, పార్ట్‌నర్‌లు 6 బిలియన్‌లకు పైగా ఇమేజ్‌లను క్లాసిఫై చేయడానికి కంటెంట్ భద్రత APIని ఉపయోగించారు, దీనివల్ల సమస్యాత్మక కంటెంట్‌ను వేగంగా, మరింత ఖచ్చితత్వంతో గుర్తించడంలో వారికి సహాయం లభించింది, తద్వారా వారు దాన్ని అధికారులకు రిపోర్ట్ చేయవచ్చు.

CSAI Match

2014లో, YouTube ఇంజనీర్‌లు మా సర్వీస్‌ల నుండి తెలిసిన CSAM వీడియోలను ట్యాగ్ చేయడానికి, తీసివేయడానికి టెక్నాలజీని డెవలప్ చేసి, ఆమోదించారు. మేము ఈ టెక్నాలజీని CSAI Match ద్వారా ఇతరులతో షేర్ చేస్తాము, ఇది వీడియోలలో గతంలో గుర్తించబడిన పిల్లలను లైంగికంగా వేధించే కంటెంట్‌ను మళ్లీ అప్‌లోడ్ చేస్తే గుర్తించడంలో సహాయపడే API. CSAI Matchని NGOలు, కంపెనీలు మా తెలిసిన దుర్వినియోగ కంటెంట్ డేటాబేస్‌తో మ్యాచ్‌లను గుర్తించడంలో సహాయపడతాయి, తద్వారా వారు స్థానిక చట్టాలు, నియంత్రణలకు అనుగుణంగా బాధ్యతాయుతంగా చర్య తీసుకోవచ్చు.

పార్ట్‌నర్ సంస్థలు & ప్రోగ్రామ్‌లు

CSAM ఆన్‌లైన్ మార్పిడికి అంతరాయం కలిగించి, పిల్లలపై లైంగిక దాడిని నిరోధించే పరిష్కారాలను డెవలప్ చేయడానికి కంపెనీలు, NGOలను ఒకే తాటిపైకి తెచ్చే అనేక Coalitionలలో మేము యాక్టివ్ మెంబర్‌గా ఉన్నాము; ఉదాహరణకు Technology Coalition, ICT Coalition, WeProtect Global Alliance, ఇంకా INHOPE, Fair Play Alliance వంటివి.

మేము కలసి కట్టుగా పిల్లల భద్రతపై పరిశోధనకు నిధులను సమకూరుస్తాము, టూల్స్‌ను, పరిజ్ఞానాన్ని షేర్ చేసుకుంటాము. వీటిలో పారదర్శకత రిపోర్టింగ్, ప్రోడక్ట్ గుర్తింపు, ఆపరేషనల్ ప్రాసెస్‌ల గణాంకాలు వంటివి ఉంటాయి.

వీరి భాగస్వామ్యంతో

Google.org ద్వారా యాడ్ గ్రాంట్లు

Google.org ద్వారా యాడ్ గ్రాంట్లు


పిల్లలపై లైంగిక చర్యలు, దోపిడీకి వ్యతిరేకంగా పోరాడే INHOPE, ECPAT International వంటి సంస్థలకు Google.org గ్రాంట్‌లను అందిస్తుంది. అదనంగా, 2003 నుండి, పిల్లలపై లైంగిక చర్యలను రిపోర్ట్ చేసే హాట్‌లైన్‌లను ఆపరేట్ చేసే NGOలు, ఛారిటీలకు Google.org సుమారు $90 మిలియన్ల ఉచిత అడ్వర్టయిజింగ్ బడ్జెట్‌ను అందించింది, తద్వారా సపోర్ట్ అవసరమైన వారిని చేరుకోవడంలో వారికి సహాయం లభిస్తుంది.

Google Fellow ప్రోగ్రామ్

Google Fellow ప్రోగ్రామ్


పిల్లలపై లైంగిక చర్యలకు వ్యతిరేకంగా పోరాడటానికి అంకితమైన NCMEC, Thorn వంటి సంస్థలలో మేము టెక్నికల్ ఫెలోషిప్‌లకు నిధులు సమకూరుస్తాము. అంతే కాకుండా, 'పిల్లలపై నేరాలు' కాన్ఫరెన్స్, 'పిల్లల పై దాడి' గురించి నేషనల్ లా ఎన్‌ఫోర్స్‌మెంట్ ట్రెయినింగ్ వంటి ఫోరమ్‌ల ద్వారా పిల్లలపై ఆన్‌లైన్ నేరాలను పరిశోధించే చట్టాన్ని అమలు చేసే అధికారులకు Google శిక్షణను అందిస్తుంది.