সম্প্রতি নিজেদের মডারেটরদের দিয়ে শিশুদের নগ্নতা প্রকাশ পায় এমন ৮৭ লক্ষ ছবি সরিয়েছে ফেসবুক। শিশুদের সম্ভাব্য যৌনতাসূচক ছবি স্বয়ংক্রিয়ভাবে শনাক্ত করতে নতুন সফটওয়্যার বানানোর কথাও জানিয়েছে বিশ্বের সবচেয়ে বড় সামাজিক মাধ্যমটি। প্ল্যাটফর্মটিতে ২০১৭ সালেই এই সফটওয়্যার আনা হলেও সে সময় তা উন্মুক্ত ছিল না, এখন এটি পাবলিক করা হয়েছে বলে উল্লেখ করা হয়েছে। ফেসবুক জানিয়েছে, শিশুদের যৌন নিপীড়নের দিকে নিয়ে যাওয়ার চেষ্টা করা হচ্ছে এমন সম্ভাব্য ঘটনাগুলো শনাক্ত করতেও আরও একটি প্রোগ্রাম বানানো হয়েছে। সরিয়ে দেওয়া ৮৭ লক্ষ ছবির মধ্যে ৯৯ শতাংশই কোনও ব্যবহারকারী অভিযোগ করার আগে সরিয়ে ফেলা হয়েছে। শিশু যৌন নিপীড়করা বিভিন্ন ‘সিক্রেট’ গ্রুপের মাধ্যমে শিশুদের অশ্লীল ছবি ছড়াচ্ছে- ২০১৬ সালে এমন খবর প্রকাশ করে ব্রিটিশ সংবাদমাধ্যম। এরপর ২০১৭ সালে প্ল্যাটফর্মটিতে শিশু যৌন নিপীড়নমূলক কনটেন্ট বেড়ে যাওয়া নিয়ে কমন্স মিডিয়া কমিটি-এর চেয়ারম্যান ডেমিয়ান কলিন্স-এর সমালোচনার মুখোমুখি হয় ফেসবুক। ফেসবুকের অন্যতম কর্তা অ্যান্টিগোন ডেভিস বলেন, 'শিশু নগ্নতা বা নিপীড়নমূলক কনটেন্ট শনাক্তে ব্যবস্থা আনার কথা ভাবছে ফেইবুক।' এসব ব্যবস্থা ফেসবুক অধীনস্থ ছবি শেয়ারিং অ্যাপ ইনস্টাগ্রামেও আনার পরিকল্পনা রয়েছে বলেও জানান তিনি। এ ছাড়াও ফেসবুক কর্তৃপক্ষ অভিযোগ পেয়েছে এমন শিশু যৌন নিপীড়নমূলক কনটেন্ট সরাতে আলাদা একটি সিস্টেম ব্যবহার করা হয়েছে।
All Rights Reserved © Copyright 2024 | Design & Developed by Webguys Direct