+
ফেইসবুকে শিশুদের ৮৭ লাখ নগ্ন ছবি
ফেইসবুকে শিশুদের ৮৭ লাখ নগ্ন ছবি

ফেইসবুকে শিশুদের ৮৭ লাখ নগ্ন ছবি

শিশুদের নগ্নতা প্রকাশ পায় এমন ৮৭ লাখ ছবি সরিয়েছে ফেইসবুক গত তিন মাসে নিজেদের মডারেটরদের দিয়ে ।

শিশুদের সম্ভাব্য যৌনতাসূচক ছবি স্বয়ংক্রিয়ভাবে শনাক্ত করতে নতুন সফটওয়্যার বানানোর কথাও জানিয়েছে বিশ্বের সবচেয়ে বড় সামাজিক মাধ্যমটি। প্ল্যাটফর্মটিতে ২০১৭ সালেই এই সফটওয়্যার আনা হলেও সে সময় তা উন্মুক্ত ছিল না, এখন এটি পাবলিক করা হয়েছে বলে উল্লেখ করা হয় বিবিসি’র প্রতিবেদনে।   

ফেইসবুক জানায়, শিশুদের যৌন নিপীড়নের দিকে নিয়ে যাওয়ার চেষ্টা করা হচ্ছে এমন সম্ভাব্য ঘটনাগুলো শনাক্ত করতেও আরেকটি প্রোগ্রাম বানানো হয়েছে। সরিয়ে দেওয়া ৮৭ লাখ ছবির মধ্যে ৯৯ শতাংশই কোনো ব্যবহারকারী অভিযোগ করার আগে সরিয়ে ফেলা হয়েছে। 

পেডোফাইল বা শিশু যৌন নিপীড়করা বিভিন্ন ‘সিক্রেট’ গ্রুপের মাধ্যমে শিশুদের অশ্লীল ছবি ছড়াচ্ছে- ২০১৬ সালে এমন খবর প্রকাশ করে ব্রিটিশ সংবাদমাধ্যমটি। এরপর ২০১৭ সালে প্ল্যাটফর্মটিতে শিশু যৌন নিপীড়নমূলক কনটেন্ট বেড়ে যাওয়া নিয়ে কমন্স মিডিয়া কমিটি-এর চেয়ারম্যান ডেমিয়ান কলিন্স-এর সমালোচনার মুখোমুখি হয় ফেইসবুক।

ফেইসবুকের বৈশ্বিক নিরাপত্তা প্রধান অ্যান্টিগোন ডেভিস বলেন, শিশু নগ্নতা বা নিপীড়নমূলক কনটেন্ট শনাক্তে ব্যবস্থা আনার কথা ভাবছে ফেইসবুক। এসব ব্যবস্থা ফেইসবুক অধীনস্থ ছবি শেয়ারিং অ্যাপ ইনস্টাগ্রামেও আনার পরিকল্পনা রয়েছে বলেও জানান তিনি।

এ ছাড়াও ফেইসবুক কর্তৃপক্ষ অভিযোগ পেয়েছে এমন শিশু যৌন নিপীড়নমূলক কনটেন্ট সরাতে আলাদা একটি সিস্টেম ব্যবহার করা হয়েছে।

এ ধরনের কনটেন্ট নিয়ে ফেইসবুককে অভিযোগ করেছে মার্কিন অলাভজনক সংস্থা ন্যাশনাল সেন্টার ফর মিসিং অ্যান্ড এক্সপ্লয়েটেড চিলড্রেন (এনসিইএমইসি)।



Published: 2018-10-28 17:10:44