ভুয়া ছবি শনাক্তে এআই টুল তৈরি করেছে ওপেনএআই
কৃত্রিম বুদ্ধিমত্তা (এআই) প্রযুক্তি ব্যবহার করে নকল কণ্ঠ, ছবি ও ভিডিও তৈরি করে প্রতারণার ঘটনা দিন দিন বেড়েই চলেছে, এমনকি এসবের মাধ্যমে ভুয়া তথ্য ছড়ানোর প্রবণতাও আগের তুলনায় বেড়েছে। এ সমস্যা সমাধানে চ্যাটজিপিটির নির্মাতা প্রতিষ্ঠান ওপেনএআই এবার কৃত্রিম বুদ্ধিমত্তার মাধ্যমে তৈরি করা ভুয়া ছবি শনাক্তে ডিপফেক ডিটেক্টর টুল তৈরি করেছে। টুলটি কাজে লাগিয়ে ওপেনএআইয়ের ‘ড্যাল-ই’ ইমেজ জেনারেটরের মাধ্যমে তৈরি করা যেকোনো কৃত্রিম ছবি শনাক্ত করা যাবে। এরই মধ্যে বেশ কয়েকজন গবেষককে টুলটির কার্যকারিতা পরীক্ষা করতে দিয়েছে ওপেনএআই।
ওপেনএআইয়ের তথ্যমতে, ডিপফেক ডিটেক্টর টুলটি মিডজার্নি, স্ট্যাবিলিটিসহ অন্য প্রতিষ্ঠানের ইমেজ জেনারেটরের মাধ্যমে তৈরি করা কৃত্রিম ছবি শনাক্ত করতে পারে না। আর তাই ডিপফেক ছবির বিস্তার ঠেকাতে টুলটি তেমন ভূমিকা রাখতে পারবে না বলে ধারণা করছেন প্রযুক্তি বিশেষজ্ঞরা। বিষয়টি অজানা নয় ওপেনএআইয়ের কাছেও। সমস্যা সমাধানে টুলটিকে আরও উন্নত করতে কাজ শুরু করেছে প্রতিষ্ঠানটি।
ওপেনএআইয়ের গবেষক সন্ধিনি আগরওয়াল বলেছেন, ‘ডিপফেক ছবি বা ভিডিওর বিরুদ্ধে লড়াইয়ের কোনো কার্যকর উপায় নেই। আমরা নতুন গবেষণা শুরু করছি। নতুন টুলটি ড্যাল-ই থ্রি মডেল ব্যবহার করে তৈরি করা ছবি ৯৮ দশমিক ৮ শতাংশ ক্ষেত্রেই সঠিকভাবে শনাক্ত করতে পারে। টুলটি মিডজার্নি ও স্ট্যাবিলিটি ইমেজ জেনারেটরের মাধ্যমে তৈরি করা ছবি শনাক্ত করার জন্য তৈরি করা হয়নি।’
উল্লেখ্য, ডিপফেক সমস্যা সমাধানের জন্য ওপেনএআই বিভিন্ন প্রতিষ্ঠান, অলাভজনক সংস্থা ও গবেষণা প্রতিষ্ঠানের সঙ্গে যুক্ত হয়ে কাজ করছে। শুধু তা–ই নয়, গুগল ও মেটার মতো কোয়ালিশন ফর কনটেন্ট প্রোভেন্যান্স অ্যান্ড অথেনটিসিটি নামের কমিটিতে যোগ দেওয়ার সিদ্ধান্ত নিয়েছে ওপেনএআই। এই কমিটি অনলাইনে থাকা ভুয়া ডিজিটাল কনটেন্ট চিহ্নিত করতে ভবিষ্যতে কাজ করবে।