Deep Fake

ডিপফেক – Deep Fake যেভাবে বিপদ ডেকে আনতে পারে

আন্তর্জাতিক
২০১৭ সালের দিকে ইউনিভার্সিটি অব ওয়াশিংটনের তরুণ একদল গবেষক সাবেক মার্কিন প্রেসিডেন্ট বারাক হোসেইন ওবামার একটি ফেইক ভিডিও বক্তব্য তৈরি করে। সেটা দেখে বোঝার কোনো উপায় থাকে না ভিডিওটি যে সত্যি নয়। মেশিন লার্নিং প্রযুক্তির যথাযথ ব্যবহার করে ওই সম্পূর্ণ ভিডিওটি তৈরি করা হয়েছিল। প্রযুক্তি সংশ্লিষ্টরা বলেছে, এটা হলো ‘ডিপফেক(Deep Fake)’।

 

মেশিন লার্নিং প্রযুক্তি ব্যবহার করে সংশ্লিষ্ট কারও ছবি এবং ডায়ালগ দিয়ে দিলেই সংশ্লিষ্ট ছবির ব্যক্তিটির একটি ভিডিও তৈরি হয়ে যাবে। যেখানে দেখা যাবে সংশ্লিষ্ট ব্যক্তিটি বক্তব্য রাখছেন, বক্তৃতা করছেন অথবা অন্যকোনও কিছু করে যাচ্ছেন। এই প্রযুক্তিটি ব্যবহার করেই তৈরি করা সম্ভব হবে অশ্লীল ভিডিও। যে কেউ কারও আক্রোশের শিকার হতেই পারেন এই প্রযুক্তিটির অপব্যবহারে।

 

সংশ্লিষ্ট খাতের সাথে বিশেষজ্ঞরা মনে করেন যে, ভালো কিছু কাজের জন্য এই প্রযুক্তির কথা ভাবা হলেও এখন এটা যেকোনও সময় বড় ধরনের যেকোনো বিপদ ডেকে আনতে পারে। বিশেষ করে সামাজিক যোগাযোগমাধ্যম এবং ইউটিউবকে কেন্দ্র করে বেড়ে যেতে পারে ডিপফেক এর উপদ্রব। কৃত্রিম বুদ্ধিমত্তা প্রযুক্তির একটা অন্যতম শাখা হলো মেশিন লার্নিং। আবার মেশিন লার্নিংয়ের একটি উপ-শাখা হলো মূলত ডিপফেক।

 

দেশে ডিপফেক নিয়ে ব্যাপক গবেষণা করছে তথ্যপ্রযুক্তির গবেষণা প্রতিষ্ঠান প্রেনিউর ল্যাব কর্তৃপক্ষ। এর প্রতিষ্ঠাতা এবং প্রধান নির্বাহী আরিফ নিজামী বলেন, মেশিন লার্নিংয়ে মেশিন বলতে পারবে যে একজন মানুষ কীভাবে কথাবার্তা বলবে, হাসবে, বিভিন্ন অঙ্গভঙ্গি করবেন। আমি শুধুমাত্র একটা ছবি মেশিনে দিয়ে দিলেই, আর কিছু ডায়ালগ আমি লিখে দেবো। মেশিন ভিডিও তৈরি করে ফেলবে। ওই ভিডিও দেখলে মনে হবে যে সংশ্লিষ্ট ব্যক্তির ভিডিও একদম হুবুহু। তিনি আরও বলেন, ‘ভিডিওটি একটু নিবিড়ভাবে দেখলে বোঝা যায় যে তা কোনোভাবেই আসল না, পুরো কল।

 

অডিওতে তো বোঝার কোনও উপায়ই থাকে না।’  তিনি  উল্লেখ করে বলেন, বিভিন্ন সময়ে অনেকের মোবাইলে কথোপকথনের অডিও ফাঁসের ঘটনা আমরা প্রায়ই শুনে থাকি। ভবিষ্যতে মেশিন লার্নিং প্রযুক্তি ব্যবহার করে এসব  তৈরি করা হলে, বোঝার কোনও ধরনের উপায় থাকবে না। তবে কেউ যদি  কারও কণ্ঠস্বর খুব  ভালো বুঝে থাকেন, তাহলে তিনি তা চিহ্নিত করলেও হয়তো করতে পারেন। তিনি আরও জানান, কয়েকটি নির্দিষ্ট বিষয় ভালো করে খেয়াল করলে বোঝা যাবে যে ভিডিওটি ফেক নাকি আসল। একটি হলো ফেক বা নকল করা ভিডিওতে মানুষের চোখের কোনো পাতা পড়ে না, বা চোখের পাতা পড়লেও অনেক বেশি গ্যাপ দিয়ে, যা মানুষের পক্ষে একেবারে সম্ভব নয়। এছাড়া গলার মুভমেন্ট থেকে শুরু করে, ঘাড় বা হাতের নড়াচড়া ভালো করে খেয়াল করলেও অনেকটা বোঝা যাবে, ভিডিওটি যে আসল নাকি নকল।

 

তিনি জানান, টেক্সটের মাধ্যমেও এটা করা এক ভাবে সম্ভব। রোবট কলামগুলো লিখে দেবে, বোঝার উপায় থাকবে না যে এটা মানুষ না রোবট লিখেছে।  ফলে সেটা যে কারও নামে চালিয়ে দিয়ে প্রকাশ করা সম্ভব। এসব ভবিষ্যতে অনেক বড় ধরনের সমস্যা তৈরি করতে পারে। সচেতনতা তৈরি করেই এসব ঠেকানো যেতে পারে। ধরা যাক, কারও কোনও একটি ভিডিও তৈরি করে ফেসবুকে অথবা ইউটিউবে প্রকাশ করা হলো। অনেকে আবার দেখার ফলে সেটা ভাইরাল হয়ে গেলো।  হাজারো মানুষ তা একবার দেখেও ফেললো।  ভিডিওটা আসল নাকি নকল তা প্রমাণ করা অনেকটাই সময়সাপেক্ষ বিষয়। প্রমাণ করতে করতেই প্রায় অনেক সময় চলে যাবে। ততক্ষণে ভিক্টিম ব্যক্তির ইমেজ শেষ বা যা ক্ষতি হওয়ার তা হয়ে যাবে। এ বিষয়টি সবার কাছে জানা শোনা থাকলে এটা আর বেশি একটা ছড়াতে পারবে না।

 

জার্মানির একটি গবেষণাধর্মী প্রতিষ্ঠানের নাম হলো ডিপট্রেস। এ প্রতিষ্ঠানটি আবার ডিপফেক চিহ্নিত করতে প্রযুক্তিগত নান সমাধান দেয়।  প্রতিষ্ঠানটির ২০১৮ সালে তৈরি  এক প্রতিবেদনে দেখা গিয়েছে যে, ওই বছর ডিপট্রেস প্রায় ৭৯৬টি ডিপফেক চিহ্নিত করে। পরের বছর  ২০১৯ সালের দিকে প্রথম ৭ মাসে ১৪ হাজার ৬৭৮টি ডিপফেক চিহ্নিত করে ফেলে।  এসব ডিপফেক কেসের মধ্যে প্রায় ৯৬ শতাংশ ছিল অসম্মতিসূচক অশ্লীল কনটেন্ট, যা একচেটিয়া ভাবে নারী শরীরকে চিহ্নিত করেছে।

 

সংশ্লিষ্টরা বলছেন, কৃত্রিম বুদ্ধিমত্তার (এআই) প্রয়োগ আমাদের বাস্তবিক সমাজে ক্রমবর্ধমান ভূমিকা পালন করে যাচ্ছে। কিন্তু এই নতুন আধুনিক প্রযুক্তির সম্ভাবনার হাত ধরে ঝুঁকিও চলে আসে। এমন একটি ঝুঁকি হলো – ইচ্ছাকৃত মিথ্যা তথ্য ছড়িয়ে দিতে এই প্রযুক্তির অপব্যবহার। যদিও রাজনৈতিক ভাবে অনুপ্রাণিত মারাত্মক গুজবের বিস্তার নিশ্চিতভাবে কোনও ধরনের নতুন ঘটনা নয়। প্রযুক্তিগত উন্নয়নে কারসাজি করেই কন্টেন্ট সৃষ্টি এবং সেই সাথে বিতরণকে অনেক সহজ এবং আগের চেয়ে অনেক কার্যকর মাধ্যম করে দিয়েছে। এআই অ্যালগরিদম গুলো ব্যবহারের মাধ্যমে কোন ধরনের বিশেষ জ্ঞান ছাড়াই এখন ভিডিওগুলো দ্রুত মিথ্যায় পরিণত করা হচ্ছে, যাকে বলা হচ্ছে ডিপফেক।

 

 

প্রেনিউর ল্যাব কর্তৃপক্ষ ডিপফেক বিষয়ক একটি ই-বুক (E-book) প্রকাশ করেছে ‘ডিপফেইকস ও গুজব’ নামে।  সেই বইয়ে উল্লেখ করা হয়েছে— ডিপফেক করা হয় অনেকটা গতিবিধির নমুনায়, কারসাজি লুকোচুরি করা হয় কণ্ঠ এবং মুখের অভিব্যক্তি গুলো দিয়ে। ছবির কারসাজি করা হয় নগ্নতা এবং কৃত্রিম মুখমণ্ডল তৈরি করে।  এছাড়া এআই (AI) উৎপন্ন টেক্সটের মাধ্যমে। বইতে আরও উল্লেখ রয়েছে, ডিপফেক (Deep Fake) প্রাথমিকভাবে অডিও ও ভিডিও কনটেন্টের জন্য ব্যবহার হতো। পরে এতে যুক্ত হয়েছে নতু করে টেক্সট। এছাড়া বইয়ে ডিপফেক এবং গুজব নিয়ে বিস্তারিত আলোচনা করা হয়েছে।

Leave a Reply

Your email address will not be published.