২০১৭ সালের দিকে ইউনিভার্সিটি অব ওয়াশিংটনের তরুণ একদল গবেষক সাবেক মার্কিন প্রেসিডেন্ট বারাক হোসেইন ওবামার একটি ফেইক ভিডিও বক্তব্য তৈরি করে। সেটা দেখে বোঝার কোনো উপায় থাকে না ভিডিওটি যে সত্যি নয়। মেশিন লার্নিং প্রযুক্তির যথাযথ ব্যবহার করে ওই সম্পূর্ণ ভিডিওটি তৈরি করা হয়েছিল। প্রযুক্তি সংশ্লিষ্টরা বলেছে, এটা হলো ‘ডিপফেক(Deep Fake)’।
মেশিন লার্নিং প্রযুক্তি ব্যবহার করে সংশ্লিষ্ট কারও ছবি এবং ডায়ালগ দিয়ে দিলেই সংশ্লিষ্ট ছবির ব্যক্তিটির একটি ভিডিও তৈরি হয়ে যাবে। যেখানে দেখা যাবে সংশ্লিষ্ট ব্যক্তিটি বক্তব্য রাখছেন, বক্তৃতা করছেন অথবা অন্যকোনও কিছু করে যাচ্ছেন। এই প্রযুক্তিটি ব্যবহার করেই তৈরি করা সম্ভব হবে অশ্লীল ভিডিও। যে কেউ কারও আক্রোশের শিকার হতেই পারেন এই প্রযুক্তিটির অপব্যবহারে।
সংশ্লিষ্ট খাতের সাথে বিশেষজ্ঞরা মনে করেন যে, ভালো কিছু কাজের জন্য এই প্রযুক্তির কথা ভাবা হলেও এখন এটা যেকোনও সময় বড় ধরনের যেকোনো বিপদ ডেকে আনতে পারে। বিশেষ করে সামাজিক যোগাযোগমাধ্যম এবং ইউটিউবকে কেন্দ্র করে বেড়ে যেতে পারে ডিপফেক এর উপদ্রব। কৃত্রিম বুদ্ধিমত্তা প্রযুক্তির একটা অন্যতম শাখা হলো মেশিন লার্নিং। আবার মেশিন লার্নিংয়ের একটি উপ-শাখা হলো মূলত ডিপফেক।
দেশে ডিপফেক নিয়ে ব্যাপক গবেষণা করছে তথ্যপ্রযুক্তির গবেষণা প্রতিষ্ঠান প্রেনিউর ল্যাব কর্তৃপক্ষ। এর প্রতিষ্ঠাতা এবং প্রধান নির্বাহী আরিফ নিজামী বলেন, মেশিন লার্নিংয়ে মেশিন বলতে পারবে যে একজন মানুষ কীভাবে কথাবার্তা বলবে, হাসবে, বিভিন্ন অঙ্গভঙ্গি করবেন। আমি শুধুমাত্র একটা ছবি মেশিনে দিয়ে দিলেই, আর কিছু ডায়ালগ আমি লিখে দেবো। মেশিন ভিডিও তৈরি করে ফেলবে। ওই ভিডিও দেখলে মনে হবে যে সংশ্লিষ্ট ব্যক্তির ভিডিও একদম হুবুহু। তিনি আরও বলেন, ‘ভিডিওটি একটু নিবিড়ভাবে দেখলে বোঝা যায় যে তা কোনোভাবেই আসল না, পুরো কল।
অডিওতে তো বোঝার কোনও উপায়ই থাকে না।’ তিনি উল্লেখ করে বলেন, বিভিন্ন সময়ে অনেকের মোবাইলে কথোপকথনের অডিও ফাঁসের ঘটনা আমরা প্রায়ই শুনে থাকি। ভবিষ্যতে মেশিন লার্নিং প্রযুক্তি ব্যবহার করে এসব তৈরি করা হলে, বোঝার কোনও ধরনের উপায় থাকবে না। তবে কেউ যদি কারও কণ্ঠস্বর খুব ভালো বুঝে থাকেন, তাহলে তিনি তা চিহ্নিত করলেও হয়তো করতে পারেন। তিনি আরও জানান, কয়েকটি নির্দিষ্ট বিষয় ভালো করে খেয়াল করলে বোঝা যাবে যে ভিডিওটি ফেক নাকি আসল। একটি হলো ফেক বা নকল করা ভিডিওতে মানুষের চোখের কোনো পাতা পড়ে না, বা চোখের পাতা পড়লেও অনেক বেশি গ্যাপ দিয়ে, যা মানুষের পক্ষে একেবারে সম্ভব নয়। এছাড়া গলার মুভমেন্ট থেকে শুরু করে, ঘাড় বা হাতের নড়াচড়া ভালো করে খেয়াল করলেও অনেকটা বোঝা যাবে, ভিডিওটি যে আসল নাকি নকল।
তিনি জানান, টেক্সটের মাধ্যমেও এটা করা এক ভাবে সম্ভব। রোবট কলামগুলো লিখে দেবে, বোঝার উপায় থাকবে না যে এটা মানুষ না রোবট লিখেছে। ফলে সেটা যে কারও নামে চালিয়ে দিয়ে প্রকাশ করা সম্ভব। এসব ভবিষ্যতে অনেক বড় ধরনের সমস্যা তৈরি করতে পারে। সচেতনতা তৈরি করেই এসব ঠেকানো যেতে পারে। ধরা যাক, কারও কোনও একটি ভিডিও তৈরি করে ফেসবুকে অথবা ইউটিউবে প্রকাশ করা হলো। অনেকে আবার দেখার ফলে সেটা ভাইরাল হয়ে গেলো। হাজারো মানুষ তা একবার দেখেও ফেললো। ভিডিওটা আসল নাকি নকল তা প্রমাণ করা অনেকটাই সময়সাপেক্ষ বিষয়। প্রমাণ করতে করতেই প্রায় অনেক সময় চলে যাবে। ততক্ষণে ভিক্টিম ব্যক্তির ইমেজ শেষ বা যা ক্ষতি হওয়ার তা হয়ে যাবে। এ বিষয়টি সবার কাছে জানা শোনা থাকলে এটা আর বেশি একটা ছড়াতে পারবে না।
জার্মানির একটি গবেষণাধর্মী প্রতিষ্ঠানের নাম হলো ডিপট্রেস। এ প্রতিষ্ঠানটি আবার ডিপফেক চিহ্নিত করতে প্রযুক্তিগত নান সমাধান দেয়। প্রতিষ্ঠানটির ২০১৮ সালে তৈরি এক প্রতিবেদনে দেখা গিয়েছে যে, ওই বছর ডিপট্রেস প্রায় ৭৯৬টি ডিপফেক চিহ্নিত করে। পরের বছর ২০১৯ সালের দিকে প্রথম ৭ মাসে ১৪ হাজার ৬৭৮টি ডিপফেক চিহ্নিত করে ফেলে। এসব ডিপফেক কেসের মধ্যে প্রায় ৯৬ শতাংশ ছিল অসম্মতিসূচক অশ্লীল কনটেন্ট, যা একচেটিয়া ভাবে নারী শরীরকে চিহ্নিত করেছে।
সংশ্লিষ্টরা বলছেন, কৃত্রিম বুদ্ধিমত্তার (এআই) প্রয়োগ আমাদের বাস্তবিক সমাজে ক্রমবর্ধমান ভূমিকা পালন করে যাচ্ছে। কিন্তু এই নতুন আধুনিক প্রযুক্তির সম্ভাবনার হাত ধরে ঝুঁকিও চলে আসে। এমন একটি ঝুঁকি হলো – ইচ্ছাকৃত মিথ্যা তথ্য ছড়িয়ে দিতে এই প্রযুক্তির অপব্যবহার। যদিও রাজনৈতিক ভাবে অনুপ্রাণিত মারাত্মক গুজবের বিস্তার নিশ্চিতভাবে কোনও ধরনের নতুন ঘটনা নয়। প্রযুক্তিগত উন্নয়নে কারসাজি করেই কন্টেন্ট সৃষ্টি এবং সেই সাথে বিতরণকে অনেক সহজ এবং আগের চেয়ে অনেক কার্যকর মাধ্যম করে দিয়েছে। এআই অ্যালগরিদম গুলো ব্যবহারের মাধ্যমে কোন ধরনের বিশেষ জ্ঞান ছাড়াই এখন ভিডিওগুলো দ্রুত মিথ্যায় পরিণত করা হচ্ছে, যাকে বলা হচ্ছে ডিপফেক।