ছবি বা ভিডিওকে বিকৃত ও কৃত্রিম বুদ্ধিমত্তার সাহায্যে নিখুঁতভাবে তৈরি করে হুবহু আসলের মতো বলে প্রচার করা হচ্ছে। বিষয়টি প্রযুক্তি জগতে ডিপফেক নামে পরিচিত হয়ে উঠেছে। এখনই বিষয়টি ভয়ানক বিপদের কারণ হয়ে উঠছে বলে আশঙ্কা করছেন বিশেষজ্ঞরা। ডিপফেক ভুয়া ভিডিও একেবারে আসলের মতো দেখায় বলে ইতিমধ্যে বিনোদন দুনিয়ায় এর ব্যবহার নিয়ে ব্যাপক আলোচনা হচ্ছে।
ভারতীয় বিশেষজ্ঞরা সতর্ক করেছেন, ডিপফেক কনটেন্ট ভারতসহ বহুজাতিক জনসংখ্যার দেশে ভয়াবহ বিপদ ডেকে আনতে পারে। দুষ্কৃতকারীরা বিকৃত কনটেন্ট ব্যবহার করে বিভিন্ন সম্প্রদায়ের মধ্যে বিবাদ তৈরি করতে পারে।
কৃত্রিম বুদ্ধিমত্তার প্রোগ্রাম দিয়ে তৈরি এসব ভিডিওতে কোনো ব্যক্তিকে এমন কথা বলতে শোনা যায়, যা তারা বলেনি। এমন কাজ করতে দেখা যেতে পারে, যা তারা করেনি। ডিজিটাল প্রক্রিয়ায় বিকৃত করা এসব ভিডিও কনটেন্ট প্রচলিত টেক্সট ও বিকৃত করা ছবির চেয়েও বেশি মারাত্মক। এসব ভুয়া তথ্য মানুষকে বেশি টানতে পারে বা মানুষ এতে হুবহু আসলের মতো দেখতে বলে বিশ্বাস করে বসে।
বার্তা সংস্থা আইএএনএসকে প্রযুক্তি বিশেষজ্ঞ প্রশান্ত কে রয় বলেছেন, জনবহুল, কম সাক্ষরতা জ্ঞানসম্পন্ন ও জাতিগত স্পর্শকাতরতা রয়েছে—এমন জাতির জন্য ডিপফেক মারাত্মক বিপদের ঝুঁকি তৈরি করতে পারে।
সাইবার মিডিয়া রিসার্চের বিশেষজ্ঞ প্রভু রাম বলেন, দীর্ঘদিন ধরেই ছবি ও ভিডিও বিকৃত করার বিষয়টি চলে আসছে, তবে ডিপফেকের মতো ভিডিও বিকৃতির বিষয়টি সামাজিক প্রেক্ষাপটে সত্যিকারের ঝুঁকি তৈরি করতে পারে। বাজে লোকের হাতে পড়লে এসব সহজ টুল হিসেবে ভুয়া তথ্য ছড়াতে ব্যবহৃত হবে।
সম্প্রতি ডিপন্যুড ডিপফেক নামের একটি অ্যাপ সরিয়ে দেওয়া হয়েছে। ওই অ্যাপ সম্প্রতি জনপ্রিয় হয়ে উঠেছিল। অ্যাপে মাত্র কয়েক ক্লিকে ভার্চ্যুয়ালভাবে কাউকে দিগম্বর করার সুবিধা ছিল।
গত মাসে মার্ক জাকারবার্গের একটি ডিপফেক ভিডিও দ্রুত ছড়িয়ে পড়ার ঘটনা থেকেই এ ধরনের ভিডিওর ভয়াবহতা উপলব্ধি করা যায়।
গত জুন মাসে বিবিসির এক প্রতিবেদনে বলা হয়, মার্ক জাকারবার্গ সদৃশ কম্পিউটার প্রোগ্রামে তৈরি জাকারবার্গের একটি ভিডিও ক্লিপ ছড়িয়ে পড়ে। ওই ভিডিওতে জাকারবার্গের মতো কথা বলার বা মাথা নাড়ার দৃশ্য রয়েছে। ভিডিওটিতে জাকারবার্গের সফলতার পেছনে একটি গোয়েন্দা সংস্থার হাত রয়েছে বলে দাবি করা হয়। ভুয়া ভিডিওটি আবার ফেসবুকের মালিকানাধীন ইনস্টাগ্রামে পোস্ট করা হয়েছে। সব জেনেশুনেও ফেসবুক কর্তৃপক্ষ বলেছে, ওই ভিডিও তারা সরাবে না।
২০১৭ সালে ইউনিভার্সিটি অব ওয়াশিংটনের একদল গবেষক সাবেক মার্কিন প্রেসিডেন্ট বারাক ওবামার একটি ভিডিও বক্তব্য তৈরি করে। সেটা দেখে বোঝার উপায় থাকে না ভিডিওটি সত্যি নয়। মেশিন লার্নিং প্রযুক্তি ব্যবহার করে ওই ভিডিওটি তৈরি করা হয়েছিল।
ভিডিওটি মূলত ‘ডিপফেক’ ভিডিও, যা আর্টিফিশিয়াল ইনটেলিজেন্স (এআই) ব্যবহার করে তৈরি করা হয়েছে। এতে কোনো ব্যক্তির ছবি ব্যবহার করে তার বিভিন্ন অ্যাকশন তৈরি করতে পারে।
এর আগে ফেসবুকে এমনই এক ভুয়া ভিডিও পোস্ট করা হয়েছিল যুক্তরাষ্ট্রের কংগ্রেসের ডেমোক্রেটিক স্পিকার ন্যান্সি পেলোসিকে নিয়ে। ওই ভিডিও নিয়ে সমালোচনার মুখে পড়তে হয় ফেসবুক কর্তৃপক্ষকে। ফেসবুক কর্তৃপক্ষ বলছে, এখন অনেক পোস্ট মেশিন লার্নিংভিত্তিক সফটওয়্যারে তৈরি হবে, যা স্বয়ংক্রিয়ভাবে ভিডিও শনাক্ত করা ও ফেসবুকে ক্ষতিকর কনটেন্ট সরিয়ে ফেলতে পারবে। এ ছাড়া তারা এমন টুল বা কম্পিউটার প্রোগ্রাম তৈরি করবে, যা কর্মীদের সম্ভাব্য ক্ষতিকর উপাদান শনাক্ত করতে সাহায্য করবে।
ফেসবুকের এক মুখপাত্র বলেন, ইনস্টাগ্রামে অন্য যেসব ভুয়া তথ্য যেভাবে দেখা হয়, এটি সেভাবে দেখা হবে। যদি থার্ড পার্টি ফ্যাক্ট চেকাররা একে ভুয়া বলে মত দেয়, তবে তা ফিল্টার করা হবে।
গত মাসে যুক্তরাষ্ট্রের স্পিকার ন্যান্সি পেলোসির একটি নকল ভিডিও সরাতে অস্বীকৃতি জানায় ফেসবুক। এতে পেলোসি ক্ষিপ্ত হন। তখন ফেসবুক কর্তৃপক্ষকে জিজ্ঞেস করা হয়, পেলোসির জায়গায় যদি জাকারবার্গকে নিয়ে এমন ভিডিও তৈরি হতো, তাহলে কি একই আচরণ করা হতো?
ডিপফেক নিয়ে উদ্বেগ প্রকাশ করে বিশেষজ্ঞরা বলছেন, সাধারণ ভুয়া খবর বা তথ্য সরানোর চেয়েও ডিপফেক কনটেন্ট সরানো কঠিন হয়ে যাবে।
পিউ রিসার্চের এক গবেষণায় বলা হয়, যুক্তরাষ্ট্রের বেশির ভাগ প্রাপ্তবয়স্ক ব্যক্তি মনে করেন, বিকৃত ভিডিও তাঁদের মধ্যে সাম্প্রতিক ঘটনা ও বিষয়গুলো নিয়ে বিভ্রান্তি সৃষ্টি করবে।
ডিপফেক ছড়িয়ে পড়লে এমন অবস্থা হবে, যখন মানুষ যখন নিজের চোখে দেখা বিষয়গুলো বিশ্বাস করবে না। মানুষের মধ্যে বিশ্বাস নষ্ট হয়ে যাবে। দুর্বৃত্তরা এ সুযোগ কাজে লাগিয়ে ভুয়া ভিডিও বা কনটেন্ট তৈরি করে ব্যক্তি, বিশেষ গোষ্ঠী ও সম্প্রদায়ের ওপর মিথ্যা প্রমাণের চেষ্টা চালাবে।
বিশেষজ্ঞরা বলছেন, ডিপফেক ভিডিও ধরার জন্য স্বয়ংক্রিয় শনাক্তকরণ প্রক্রিয়া এখনো প্রাথমিক পর্যায়ে রয়েছে। তবে এ ক্ষেত্রে সচেতনতা ও প্রযুক্তি সহায়তা যুক্ত করে এ ধরনের কনটেন্টকে ফ্ল্যাগ দেখানোর সুযোগ থাকা উচিত। সামাজিক যোগাযোগমাধ্যমগুলোকেও এ বিষয়ে যথাযথ পদক্ষেপ নিতে হবে।
দেশে ডিপফেক নিয়ে গবেষণা করছে তথ্যপ্রযুক্তির গবেষণা প্রতিষ্ঠান প্রেনিউর ল্যাব। এর প্রতিষ্ঠাতা ও প্রধান নির্বাহী আরিফ নিজামী বলেন, ‘মেশিন লার্নিংয়ে মেশিন বলতে পারবে—একজন মানুষ কীভাবে কথা বলবে, হাসবে, বিভিন্ন অঙ্গভঙ্গি করবে। আমি শুধু একটা ছবি মেশিনে দিয়ে দেবো, আর কিছু ডায়ালগ লিখে দেবো। মেশিন ভিডিও তৈরি করে দেবে। ওই ভিডিও দেখলে মনে হবে সংশ্লিষ্ট ব্যক্তির ভিডিও।’ তিনি বলেন, ‘ভিডিওটি নিবিড়ভাবে দেখলে বোঝা যায় যে তা আসল না, নকল। অডিওতে তো বোঝার কোনও উপায়ই নেই।’ তিনি উল্লেখ করেন, বিভিন্ন সময়ে অনেকের কথোপকথনের অডিও ফাঁসের ঘটনা আমরা শুনি। ভবিষ্যতে মেশিন লার্নিং ব্যবহার করে এসব তৈরি করা হলে, বোঝার কোনও উপায় থাকবে না। তবে কেউ যদি কারও কণ্ঠস্বর ভালো বুঝে থাকেন, তাহলে তিনি তা চিহ্নিত করলেও করতে পারেন। আরিফ নিজামী জানান, কয়েকটি বিষয় ভালো করে খেয়াল করলে বোঝা যাবে ভিডিওটি ফেক না আসল। একটি হলো ফেক বা নকল ভিডিওতে মানুষের চোখের পাতা পড়ে না, বা চোখের পাতা পড়লেও অনেক গ্যাপ দিয়ে, যা মানুষের পক্ষে সম্ভব নয়। এছাড়া গলার মুভমেন্ট, ঘাড় বা হাতের নড়াচড়া ভালো করে খেয়াল করলেও বোঝা যাবে, ভিডিওটি আসল না নকল।
তিনি আরও জানান, টেক্সটের মাধ্যমেও এটা করা সম্ভব। রোবট কলাম লিখে দেবে, বোঝার উপায় থাকবে না এটা মানুষ না রোবট লিখেছে। ফলে সেটা যে কারও নাম দিয়ে প্রকাশ করা সম্ভব। এসব ভবিষ্যতে বড় ধরনের সমস্যা তৈরি করতে পারে। সচেতনতা তৈরি করে এসব ঠেকানো যেতে পারে। ধরা যাক, কারও কোনও ভিডিও তৈরি করে ফেসবুকে বা ইউটিউবে প্রকাশ করা হলো। অনেকে দেখার ফলে তা ভাইরাল হয়ে গেলো। হাজারো মানুষ তা দেখেও ফেললো। ভিডিওটা আসল না নকল তা প্রমাণ করা অনেক সময়সাপেক্ষ বিষয়। প্রমাণ করতে করতেই অনেক সময় চলে যাবে। ততক্ষণে ব্যক্তির ইমেজ শেষ বা যা ক্ষতি হওয়ার তা হয়ে যাবে। এ বিষয়ে সবার জানাশোনা থাকলে এটা আর বেশি ছড়াতে পারবে না।
জার্মানির একটি গবেষণা প্রতিষ্ঠানের নাম হলো ডিপট্রেস। এ প্রতিষ্ঠানটি ডিপফেক চিহ্নিত করতে প্রযুক্তিগত সমাধান দেয়। প্রতিষ্ঠানটির ২০১৮ সালে তৈরি এক প্রতিবেদনে দেখা যায়, ওই বছর ডিপট্রেস ৭৯৬টি ডিপফেক চিহ্নিত করে। পরের বছর ২০১৯ সালের প্রথম ৭ মাসে ১৪ হাজার ৬৭৮টি ডিপফেক চিহ্নিত করে। এসব ডিপফেক কেসের মধ্যে ৯৬ শতাংশ ছিল অসম্মতিসূচক অশ্লীল কনটেন্ট, যা একচেটিয়া নারী শরীরকে চিহ্নিত করেছে।
সংশ্লিষ্টরা বলছেন, কৃত্রিম বুদ্ধিমত্তার (এআই) প্রয়োগ আমাদের সমাজে ক্রমবর্ধমান ভূমিকা পালন করছে। কিন্তু এই নতুন প্রযুক্তির সম্ভাবনার হাত ধরে ঝুঁকিও আসে। এমন একটি ঝুঁকি হলো—ইচ্ছাকৃত মিথ্যা তথ্য ছড়িয়ে দিতে প্রযুক্তির অপব্যবহার। যদিও রাজনৈতিকভাবে অনুপ্রাণিত গুজবের বিস্তার নিশ্চিতভাবে কোনও নতুন ঘটনা নয়। প্রযুক্তিগত উন্নয়নে কারসাজি করে কন্টেন্ট সৃষ্টি এবং বিতরণকে অনেক সহজ এবং আগের চেয়ে অনেক কার্যকর করে দিয়েছে। এআই অ্যালগরিদম ব্যবহারের মাধ্যমে কোনও বিশেষ জ্ঞান ছাড়াই এখন ভিডিও দ্রুত মিথ্যায় পরিণত করা যায়, যাকে বলা হচ্ছে ডিপফেক।
প্রেনিউর ল্যাব ডিপফেক বিষয়ক একটি ই-বুক প্রকাশ করেছে ‘ডিপফেইকস ও গুজব’ নামে। সেই বইয়ে উল্লেখ করা হয়েছে— ডিপফেক করা হয় গতিবিধির নমুনায়, কারসাজি করা হয় কণ্ঠ ও মুখের অভিব্যক্তি দিয়ে। ছবির কারসাজি করা হয় নগ্নতা ও কৃত্রিম মুখমণ্ডল তৈরি করে। এছাড়া এআই উৎপন্ন টেক্সটের মাধ্যমে। বইয়ে আরও উল্লেখ রয়েছে, ডিপফেক প্রাথমিকভাবে অডিও এবং ভিডিও কনটেন্টের জন্য ব্যবহার হতো। পরে এতে যুক্ত হয়েছে টেক্সট। এছাড়া বইয়ে ডিপফেক ও গুজব নিয়ে বিস্তারিত আলোচনা করা হয়েছে।
সূত্র: প্রথম আলো, বাংলা ট্রিবিউন