অনলাইনে বাচ্চাদের যৌন নিগ্রহ ও শোষণের বিরুদ্ধে লড়াই করতে আমরা অনেক বিনিয়োগ করি এবং আমাদের তৈরি টেকনোলজির সাহায্যে এইসব অপরাধমূলক কন্টেন্টগুলি চিহ্নিত করে, সেগুলি আমাদের প্ল্যাটফর্মে পোস্ট বা প্রচার করতে বাধা দিই ও সরানোর ব্যবস্থা করি।

আমরা অন্যান্য কোম্পানি ও এনজিওর সেই সব প্রোগ্রামের সাথে যুক্ত আছি যাতে আমরা CSAM-এর বিরুদ্ধে লড়াই করতে সেই সব সংস্থাগুলিকে প্রযুক্তিগত দক্ষতা এবং আরও উন্নত টুল শেয়ার করতে পারি।

বাচ্চাদের সুরক্ষা সম্পর্কিত টুলকিটের জন্য এখানে. ক্লিক করে আরও জানুন।

লড়াই করা নির্যাতনের বিরুদ্ধে আমাদের নিজস্ব প্ল্যাটফর্ম এবং পরিষেবাতে

Google শুরু থেকেই আমাদের পরিষেবাতে বাচ্চাদের উপর হওয়া যৌন নির্যাতন এবং শোষণের বিরুদ্ধে লড়াই করার ব্যাপারে প্রতিজ্ঞাবদ্ধ। শিশুদের উপর যৌন নির্যাতন সংক্রান্ত কন্টেন্ট ও আচরণ শনাক্ত করতে, বাধা দিতে, সরাতে ও রিপোর্ট করতে টেকনোলজি, লোকজন ও গুরুত্বপূর্ণ রিসোর্স সময়মতো আমরা কাজে লাগাই।

আমরা কী কী কাজ করছি?

নির্যাতন প্রতিরোধ করা

নির্যাতন প্রতিরোধ করা


আমাদের উদ্দেশ্য যৌন নির্যাতনের মতো ঘটনা ঘটতে না দেওয়া তাই আমাদের প্রোডাক্ট বাচ্চারা যাতে নিরাপদে ব্যবহার করতে পারে তা নিশ্চিত করতে চাই। এছাড়া, ক্রম পরিবর্তনশীল ঝুঁকি এবং উৎপীড়নের নতুন নতুন পদ্ধতি বুঝতে আমরা উপলভ্য সব ইনসাইট এবং রিসার্চ ডেটা ব্যবহার করি। আমরা বেআইনি CSAM ছাড়াও এমন বিভিন্ন ধরনের কন্টেন্ট শনাক্ত করে রিপোর্ট করি যাতে বাচ্চাদের যৌন নির্যাতন দেখানো হয়েছে এবং যে কন্টেন্টের কারণে বাচ্চাদের বিপদ হতে পারে।

শনাক্ত এবং রিপোর্ট করা

শনাক্ত এবং রিপোর্ট করা


আমরা প্রশিক্ষিত বিশেষজ্ঞ এবং অত্যাধুনিক প্রযুক্তির সহযোগিতায় CSAM শনাক্ত করে রিপোর্ট করি। অত্যাধুনিক প্রযুক্তির মধ্যে অন্তর্ভুক্ত মেশিন লার্নিং ক্লাসিফায়ার এবং হ্যাশ-ম্য়াচিং টেকনোলজি যা ছবি বা ভিডিওর “হ্যাশ” বা অন্যন্য ডিজিটাল ফিঙ্গারপ্রিন্ট তৈরি করে যাতে পরিচিত CSAM-এর সাথে এটির তুলনা করা যায়। আমরা CSAM পেলে ন্যাশনাল সেন্টার ফর মিসিং এবং এক্সপ্লোয়েটেড চিলড্রেন (NCMEC)-এ এই বিষয়ে রিপোর্ট করি, এই সংস্থাটি সারা বিশ্বে আইন বলবৎকারী এজেন্সির সাথে যোগাযোগ করে প্রয়োজনীয় ব্যবস্থা নেয়।

বিশ্বজুড়ে একত্রে কাজ করা

বিশ্বজুড়ে একত্রে কাজ করা


অনলাইনে হওয়া বাচ্চাদের উপর যৌন নির্যাতনের বিরুদ্ধে লড়াই করতে আমরা NCMEC এবং বিশ্বজুড়ে অন্যান্য সংস্থার সাথে একত্রে কাজ করি। বাচ্চাদের উপর যৌন নির্যাতন এবং শোষণের ক্রম পরিবর্তনশীল ধরন সম্পর্কে একত্রে বুঝতে বা এই কাজে আরও অগ্রসর হতে এই উদ্যোগের অংশ হিসেবে আমরা এনজিও এবং ইন্ডাস্ট্রি পার্টনারদের সাথে অটুট সম্পর্ক গড়ে তুলি।

আমরা এই কাজটি কীভাবে করছি?

Search-এ বাচ্চাদের যৌন নির্যাতেনের বিরুদ্ধে লড়াই করা

Search-এ বাচ্চাদের যৌন নির্যাতেনের বিরুদ্ধে লড়াই করা


Google Search-এ ব্যবহার করে খুব সহজেই বিভিন্ন তথ্য খুঁজে পাওয়া যায়, তবে আমরা কখনই চাই না যে বেআইনি বা বাচ্চাদের যৌন নির্যাতন দেখানো হয়েছে এমন কন্টেন্ট Search-এর ফলাফলে দেখানো হোক। আমাদের নীতি অনুসারে যেসব সার্চ ফলাফলে ক্লিক করলে বাচ্চাদের যৌন নির্যাতনের ছবি বা এই সংক্রান্ত কন্টেন্ট খুলে যায় এবং যাতে বাচ্চাদের যৌন নির্যাতনের শিকার, বিপদগ্রস্ত বা অন্য়ভাবে শোষণ করা বলে দেখানো হয় সেই সার্চ ফলাফল ব্লক করে দিই। ক্রমাগত পরিবর্তনশীল এই রকম ঝুঁকির মোকাবিলা করতে আমরা অনবরত আমাদের অ্যালগরিদম আপডেট করছি।

আমরা যদি বুঝতে পারি যে CSAM কন্টেন্ট সার্চ করা হচ্ছে তাহলে সেক্ষেত্রে অতিরিক্ত সুরক্ষা লেয়ার প্রয়োগ করি। সার্চ কোয়েরিতে CSAM কন্টেট খোঁজা হচ্ছে মনে হলে আমরা অনুপযুক্ত যৌন কন্টেন্ট ফিল্টার করে বাদ দিয়ে দিই, এছাড়া, কোয়েরিতে প্রাপ্তবয়স্কদের জন্য় অনুপযুক্ত কন্টেন্ট সার্চ করা হলে বাচ্চা এবং যৌন কন্টেন্টের মধ্যে লিঙ্ক বিছিন্ন করতে Search এমন ছবি তুলে ধরবে না যাতে বাচ্চাকে দেখানো হয়েছে। অনেক দেশে সরাসরি CSAM সম্পর্কিত কোয়েরি করা হলে নজরকাড়ার মতো সতর্কবার্তা দেখানো হয় যে বাচ্চদের যৌন নির্যাতনের ছবি সার্চ করা বা দেখা বেআইনি, এছাড়া, যুক্তরাজ্যে ইন্টারনেট ওয়াচ ফাউন্ডেশন, কানাডিয়ান সেন্টার ফর চাইল্ড প্রোটেকশন এবং কলম্বিয়ার Te Protejo-এর মতো বিশ্বস্ত সংস্থাকে কীভাবে এই ধরনের কন্টেন্ট সম্পর্কে রিপোর্ট করতে হবে সেই সংক্রান্ত তথ্য দেওয়া হয়। এই ধরনের সর্তকবার্তা দেখানো হলে ব্যবহারকারী বেশিরভাগ ক্ষেত্রেই এই রকম কন্টেন্ট খোঁজা বন্ধ করে দেন।

YouTub শোষণমূলক ভিডিও বা কন্টেন্টের বিরুদ্ধে লড়াই করতে কী ব্যবস্থা নিয়েছে

YouTub শোষণমূলক ভিডিও বা কন্টেন্টের বিরুদ্ধে লড়াই করতে কী ব্যবস্থা নিয়েছে


ভিডিও, প্লেলিস্ট, থাম্বনেল এবং YouTube-এর বাচ্চাদের যৌনতা নিয়ে বা যৌন নিগ্রহের উল্লেখ করা কন্টেন্টের বিষয়ে আমাদের সুস্পষ্ট নীতি আছে। এইসব নীতি লঙ্ঘন করা হলে তা সময়মতো এবং কার্যকরভাব শনাক্ত করতে আমরা মেশিন লার্নিং সিস্টেম ব্যবহার করি, এছাড়া সারা বিশ্বে আমাদের পর্যালোচক আছেন যারা আমাদের সিস্টেমের শনাক্ত করা নীতি লঙ্ঘনকারী বা ব্যবহারকারীর ফ্ল্যাগ করা এবং আমাদের বিশস্ত ফ্ল্যাগারদের রিপোর্ট করা কন্টেন্ট চটপট মুছে দেন।

নাবালকদের দেখানো হয়েছে এমন কিছু কন্টেন্ট আমাদের নীতি লঙ্ঘন করতে নাও পারে, আমরা বুঝি যে নাবালকরা অনলাইন বা অফলাইনে শোষণের শিকার হতে পারেন। এই কারণেই এইসব নীতি প্রয়োগ করার সময় আমরা অতিরিক্ত সর্তক থাকি। যেসব ভিডিওর কারণে নাবলকরা বিপদে পড়তে পারে আমাদের মেশিন লার্নিং সিস্টেম সেগুলি সময়মতো শনাক্ত করতে সাহায্য করে এবং এমনভাবে সুরক্ষাব্যবস্থা প্রয়োগ করে যাতে লাইভ ফিচার কন্ট্রোল করা হয়, কমেন্ট করার সুবিধা বন্ধ এবং ভিডিও সাজেশন সীমিত করা হয়।

আমাদের CSAM ট্রান্সপারেন্সি রিপোর্ট

আমাদের CSAM ট্রান্সপারেন্সি রিপোর্ট


২০২১-এ আমরা Google অনলাইনে বাচ্চাদের যৌন নির্যাতন সংক্রান্ত কন্টেন্টের বিরুদ্ধে লড়াই করতে কী কী কাজ করছে সে বিষয়ে একটি ট্রান্সপারেন্সি রিপোর্ট লঞ্চ করেছি, এতে বলা আছে NCMEC-তে আমরা কতবার রিপোর্ট করেছি। এছাড়া, YouTube-এ কী কী কাজ করছি তাও এই রিপোর্টে দেওয়া থাকে, আমরা কীভাবে Search-এ CSAM ফলাফল শনাক্ত করে মুছে দিই এবং আমাদের বিভিন্ন পরিষেবা জুড়ে CSAM শর্ত লঙঘনের জন্য় কত অ্যাকাউন্ট বন্ধ করে দিই তাও দেওয়া থাকে।

আমরা NCMEC-এর সাথে কতগুলি CSAM হ্যাশ শেয়ার করি তাও এই তথ্যে অন্তর্ভুক্ত থাকে। এইসব হ্যাশের মাধ্যমে অন্যান্য প্ল্যাটফর্ম বিভিন্ন লেভেলে CSAM শনাক্ত করে। আমাদের এবং ইন্ডাস্ট্রির অন্যান্য় পার্টনারেদের জন্য NCMEC-এর হ্যাশ ডেটাবেসে অবদান রাখা গুরুত্বপূর্ণ, এটি CSAM-এর বিরুদ্ধে লড়াই করতে সাহায্য করে, কারণ এটি এই ধরনের কন্টেন্ট নতুন করে শেয়ার করার হার কম করে এবং পীড়িত বাচ্চার আবার যাতে নির্যাতনের শিকার না হয় তা নিশ্চিত করে।

আমাদের প্রোডাক্টে অনুপযুক্ত আচরণ সম্পর্কে রিপোর্ট করা

আমাদের প্রোডাক্টে অনুপযুক্ত আচরণ সম্পর্কে রিপোর্ট করা


আমাদের প্রোডাক্ট ব্যবহারকারী বাচ্চারা যাতে গ্রুমিং, যৌনতামূলক শোষণ, ট্রাফিকিং এবং অন্যান্য় ধরনের যৌন নির্যাতনের শিকার না হয় সেই জন্য আমরা তাদের যথাযথভাবে সুরক্ষিত করতে চাই। আমদের প্রোডাক্ট বাচ্চার যাতে নিরাপদে ব্য়বহার করতে পারে সেইজন্য আমরা উপযোগী তথ্য প্রদান করি যাতে ব্যবহারকারীরা সংশ্লিষ্ট কতৃপক্ষকে বাচ্চাদের যৌন নির্যাতন সংক্রান্ত কন্টেন্টের বিষয়ে রিপোর্ট করতে পারেন।

ব্যবহারকারীর যদি সন্দেহ হয় যে বাচ্চা Gmail বা Hangouts-এর মতো Google প্রোডাক্ট ব্যবহার করার সময় বিপদগ্রস্ত হয়েছে তাহলে এই ফর্মের মাধ্যমে তারা রিপোর্ট করতে পারবেন। ব্যবহারকারী YouTube-এর অনুপযুক্ত কন্টেন্ট ফ্ল্যাগ করতে পারবেন এবং Google Meet-এর অপব্যবহার করা হলে তা সহায়তা কেন্দ্রের মাধ্যমে এবং প্রোডাক্টে আপত্তিজনক কিছু থাকলে তা সরাসরি রিপোর্ট করতে পারবেন। এছাড়া, আমরা উৎপড়ীন এবং হয়রানির মতো সমস্যার সাথে কীভাবে মোকাবিলা করতে হবে সেই সংক্রান্ত তথ্যও প্রদান করি, ব্যবহারকারী কোনও বাচ্চার সাথে যোগযোগ করার চেষ্টা করলে তাকে কীভাবে ব্লক করতে হবে তাও এতে বলা থাকে। বাচ্চাদের সুরক্ষা সংক্রান্ত নীতির বিষয়ে আরও জানতে আমাদের YouTube-এর কমিউনিটি নির্দেশিকা এবং Google সুরক্ষা কেন্দ্র দেখুন।

বাচ্চাদের যৌন নির্যাতনের বিরুদ্ধে লড়াই করতে টুল ডেভেলপ এবং শেয়ার করা

আমরা বাচ্চাদের সুরক্ষিত রাখতে এবং অন্যান্যদের এই কাজে সাহায্য করতে প্রযুক্তিগত দক্ষতা এবং উদ্ভাবনী কৌশল ব্য়বহার করি। আমরা বিনামূল্যে উপযুক্ত সংস্থাগুলিকে অত্যাধুনিক টেকনোলজি প্রদান করি যাতে তারা আরও দক্ষতার সাথে, দ্রুত এবং নিরাপদে অপারেট করতে পারে এবং আগ্রহী সংস্থাগুলিকে বাচ্চাদের জন্য তৈরি আমাদের নিরাপত্তা টুল ব্যবহার করার জন্য আবেদন করতে উদ্বুদ্ধ করি।

কন্টেন্ট সুরক্ষা এপিআই

Google অনেক দিন ধরে মেশিন লার্নিং ক্লাসিফায়ার ডেভেলপ করার জন্য কাজ করছে যাতে আমরা সময়মতো আগে না দেখা CSAM ছবি শনাক্ত করতে পারি, এর ফলে এটি পর্যালোচনা করা যাবে এবং CSAM বলে নিশ্চিত হলে, সরিয়ে দেওয়া এবং যত তাড়াতাড়ি সম্ভব রিপোর্ট করা হবে। এই টেকনোলজির উপর কন্টেন্ট সুরক্ষা এপিআই নির্ভরশীল, এটি বিভিন্ন সংস্থাকে আপত্তিজনক কন্টেন্ট পর্যালোচনার জন্য শ্রেণীবদ্ধ করতে এবং অগ্রাধিকারের ভিত্তিতে বেছে নিতে সাহায্য করে। ২০২১-এর প্রথম দিকে, পার্টনাররা ৬ বিলিয়নের বেশি ছবি শ্রেণীবদ্ধ করতে কন্টেন্ট সুরক্ষা এপিআই ব্যবহার করে, এর সাহায্যে খুব সহজেই তারা সংশ্লিষ্ট কতৃপক্ষকে রিপোর্ট করার জন্য সমস্যাযুক্ত কন্টেন্ট চটপট এবং আরও সঠিকভাবে বেছে নিতে পারবে।

CSAI Match

২০১৪ সালে, YouTube ইঞ্জিনিয়াররা আমাদের পরিষেবাতে থাকা CSAM ভিডিও ট্যাগ করতে এবং সেগুলি পরিষেবা থেকে সরিয়ে দিতে টেকনোলজি ডেভেলপ এবং অ্যাডাপ্ট করেছেন। আমরা এই টেকনোলজি CSAI Match-এর মাধ্যমে অন্যান্যদের সাথে শেয়ার করি, CSAI Match হল একটি এপিআই যা বাচ্চাদের যৌন নির্যাতন সংক্রান্ত কন্টেন্ট থাকা কোনও শনাক্ত করা ভিডিও নতুন করে আপলোড করা হলে তা চিহ্নিত করে। এনজিও এবং বিভিন্ন কোম্পানি CSAI Match ব্যবহার করে যাতে তারা আমাদের পরিচিতি আপত্তিজনক কন্টেন্টের ডেটাবেসে সমস্যাযুক্ত কন্টেন্ট খুঁজতে পারে এবং স্থানীয় আইন ও বিধি অনুসারে দায়িত্ব নিয়ে ব্যবস্থা নিতে পারে।

অ্যালায়েন্স ও প্রোগ্রাম

টেকনোলজি কোয়ালিশন, ICT কোয়ালিশন, WeProtect গ্লোবাল অ্যালায়েন্স এবং INHOPE এবং ফেয়ার প্লে অ্যালায়েন্সের মতো বিভিন্ন কোয়ালিশনের সক্রিয় সদস্য, যা অনলাইনে CSAM-এর বিতরণ আটকাতে এবং বাচ্চাদের যৌন শোষণ প্রতিরোধ করার জন্য সমস্যা সমাধানকারী টুল ডেভেলপ করার উদ্দেশ্য বিভিন্ন কোম্পানি এবং এনজিওকে একই প্ল্যাটফর্মে নিয়ে আসে।

আমরা একত্রে বাচ্চাদের নিরাপত্তা সংক্রান্ত রিসার্চ স্পনসর করি এবং ট্রান্সপারেন্সি রিপোর্টিং সংক্রান্ত ইনসাইট, ইন-প্রোডাক্ট শনাক্তকরণ এবং অপারেশনাল প্রসেসের মতো টুল এবং জ্ঞান শেয়ার করি।

এর সাথে পার্টনারশিপে

Google.org-এর মাধ্যমে বিজ্ঞাপন গ্রান্ট

Google.org-এর মাধ্যমে বিজ্ঞাপন গ্রান্ট


INHOPE এবং ECPAT ইন্টারন্যাশনালের মতো যেসব সংস্থা বাচ্চার যৌন নির্যাতন এবং শোষণের বিরুদ্ধে লড়াইয়ে অন্যতম ভূমিকা পালন করছে সেইসব সংস্থাকে Google.org গ্রান্ট প্রদান করে। এছাড়া, ২০০৩ থেকে Google.org ফ্রি অ্যাডভার্টাইজিং বাজেট হিসেবে প্রায় $৯০ মিলিয়ন এনজিও এবং দাতব্য প্রতিষ্ঠানকে প্রদান করেছে, এই প্রতিষ্ঠানগুলি বাচ্চাদের যৌন নির্যাতন রিপোর্ট করা হটলাইন অপারেট করে, এর ফলে যাদের সহায়তা খুব প্রয়োজন তাদের কাছে এইসব প্রতিষ্ঠানকে পৌঁছাতে সাহায্য করেছে।

Google ফেলো প্রোগ্রাম

Google ফেলো প্রোগ্রাম


NCMEC এবং Thorn-এর মতো যেসব সংস্থা বাচ্চাদের যৌন নির্যাতনের বিরুদ্ধে লড়াই করে সেইসব সংস্থার টেকনিক্যাল ফেলোশিপ স্পনসর করে। এছাড়া, ক্রাইম এগেনস্ট চিলড্রেন কনফারেন্স এবং ন্যাশনাল ল এনফোর্সমেন্ট ট্রেনিং অন চিলড্রেন এক্সপ্লোয়েটশনের মতো ফোরামের মাধ্যমে অনলাইনে বাচ্চাদের বিরুদ্ধে অপরাধের তদন্ত করছেন এমন আইন বলবৎকারী আধিকারিককে Google প্রশিক্ষণ প্রদান করে।