Image default
প্রযুক্তি

‘ডিপফেক টেকনোলজি’ – একটি বিপদের নাম

ছবি বা ভিডিওকে বিকৃত ও কৃত্রিম বুদ্ধিমত্তার সাহায্যে নিখুঁতভাবে তৈরি করে হুবহু আসলের মতো বলে প্রচার করা হচ্ছে। বিষয়টি প্রযুক্তি জগতে ডিপফেক নামে পরিচিত হয়ে উঠেছে। এখনই বিষয়টি ভয়ানক বিপদের কারণ হয়ে উঠছে বলে আশঙ্কা করছেন বিশেষজ্ঞরা। ডিপফেক ভুয়া ভিডিও একেবারে আসলের মতো দেখায় বলে ইতিমধ্যে বিনোদন দুনিয়ায় এর ব্যবহার নিয়ে ব্যাপক আলোচনা হচ্ছে।

ভারতীয় বিশেষজ্ঞরা সতর্ক করেছেন, ডিপফেক কনটেন্ট ভারতসহ বহুজাতিক জনসংখ্যার দেশে ভয়াবহ বিপদ ডেকে আনতে পারে। দুষ্কৃতকারীরা বিকৃত কনটেন্ট ব্যবহার করে বিভিন্ন সম্প্রদায়ের মধ্যে বিবাদ তৈরি করতে পারে।

কৃত্রিম বুদ্ধিমত্তার প্রোগ্রাম দিয়ে তৈরি এসব ভিডিওতে কোনো ব্যক্তিকে এমন কথা বলতে শোনা যায়, যা তারা বলেনি। এমন কাজ করতে দেখা যেতে পারে, যা তারা করেনি। ডিজিটাল প্রক্রিয়ায় বিকৃত করা এসব ভিডিও কনটেন্ট প্রচলিত টেক্সট ও বিকৃত করা ছবির চেয়েও বেশি মারাত্মক। এসব ভুয়া তথ্য মানুষকে বেশি টানতে পারে বা মানুষ এতে হুবহু আসলের মতো দেখতে বলে বিশ্বাস করে বসে।

ডিপফেক টেকনোলজি
ফটোশপ ব্যবহার করে নকল ছবি বানানো গেলেও নকল ভিডিও তৈরি করতে উচ্চমানের প্রযুক্তি দরকার ; ছবি : CNN

বার্তা সংস্থা আইএএনএসকে প্রযুক্তি বিশেষজ্ঞ প্রশান্ত কে রয় বলেছেন, জনবহুল, কম সাক্ষরতা জ্ঞানসম্পন্ন ও জাতিগত স্পর্শকাতরতা রয়েছে—এমন জাতির জন্য ডিপফেক মারাত্মক বিপদের ঝুঁকি তৈরি করতে পারে।

সাইবার মিডিয়া রিসার্চের বিশেষজ্ঞ প্রভু রাম বলেন, দীর্ঘদিন ধরেই ছবি ও ভিডিও বিকৃত করার বিষয়টি চলে আসছে, তবে ডিপফেকের মতো ভিডিও বিকৃতির বিষয়টি সামাজিক প্রেক্ষাপটে সত্যিকারের ঝুঁকি তৈরি করতে পারে। বাজে লোকের হাতে পড়লে এসব সহজ টুল হিসেবে ভুয়া তথ্য ছড়াতে ব্যবহৃত হবে।

সম্প্রতি ডিপন্যুড ডিপফেক নামের একটি অ্যাপ সরিয়ে দেওয়া হয়েছে। ওই অ্যাপ সম্প্রতি জনপ্রিয় হয়ে উঠেছিল। অ্যাপে মাত্র কয়েক ক্লিকে ভার্চ্যুয়ালভাবে কাউকে দিগম্বর করার সুবিধা ছিল।

গত মাসে মার্ক জাকারবার্গের একটি ডিপফেক ভিডিও দ্রুত ছড়িয়ে পড়ার ঘটনা থেকেই এ ধরনের ভিডিওর ভয়াবহতা উপলব্ধি করা যায়।

গত জুন মাসে বিবিসির এক প্রতিবেদনে বলা হয়, মার্ক জাকারবার্গ সদৃশ কম্পিউটার প্রোগ্রামে তৈরি জাকারবার্গের একটি ভিডিও ক্লিপ ছড়িয়ে পড়ে। ওই ভিডিওতে জাকারবার্গের মতো কথা বলার বা মাথা নাড়ার দৃশ্য রয়েছে। ভিডিওটিতে জাকারবার্গের সফলতার পেছনে একটি গোয়েন্দা সংস্থার হাত রয়েছে বলে দাবি করা হয়। ভুয়া ভিডিওটি আবার ফেসবুকের মালিকানাধীন ইনস্টাগ্রামে পোস্ট করা হয়েছে। সব জেনেশুনেও ফেসবুক কর্তৃপক্ষ বলেছে, ওই ভিডিও তারা সরাবে না।

২০১৭ সালে ইউনিভার্সিটি অব ওয়াশিংটনের একদল গবেষক সাবেক মার্কিন প্রেসিডেন্ট বারাক ওবামার একটি ভিডিও বক্তব্য তৈরি করে। সেটা দেখে বোঝার উপায় থাকে না ভিডিওটি সত্যি নয়। মেশিন লার্নিং প্রযুক্তি ব্যবহার করে ওই ভিডিওটি তৈরি করা হয়েছিল।

ভিডিওটি মূলত ‘ডিপফেক’ ভিডিও, যা আর্টিফিশিয়াল ইনটেলিজেন্স (এআই) ব্যবহার করে তৈরি করা হয়েছে। এতে কোনো ব্যক্তির ছবি ব্যবহার করে তার বিভিন্ন অ্যাকশন তৈরি করতে পারে।

ডিপফেক টেকনোলজি
মুখমন্ডলের বিভিন্ন অভিব্যক্তি ধারণ করে মেশিন লার্নিং দিয়ে নকল ভিডিও বানানো হয়; ছবি : hackernoon.com

এর আগে ফেসবুকে এমনই এক ভুয়া ভিডিও পোস্ট করা হয়েছিল যুক্তরাষ্ট্রের কংগ্রেসের ডেমোক্রেটিক স্পিকার ন্যান্সি পেলোসিকে নিয়ে। ওই ভিডিও নিয়ে সমালোচনার মুখে পড়তে হয় ফেসবুক কর্তৃপক্ষকে। ফেসবুক কর্তৃপক্ষ বলছে, এখন অনেক পোস্ট মেশিন লার্নিংভিত্তিক সফটওয়্যারে তৈরি হবে, যা স্বয়ংক্রিয়ভাবে ভিডিও শনাক্ত করা ও ফেসবুকে ক্ষতিকর কনটেন্ট সরিয়ে ফেলতে পারবে। এ ছাড়া তারা এমন টুল বা কম্পিউটার প্রোগ্রাম তৈরি করবে, যা কর্মীদের সম্ভাব্য ক্ষতিকর উপাদান শনাক্ত করতে সাহায্য করবে।

ফেসবুকের এক মুখপাত্র বলেন, ইনস্টাগ্রামে অন্য যেসব ভুয়া তথ্য যেভাবে দেখা হয়, এটি সেভাবে দেখা হবে। যদি থার্ড পার্টি ফ্যাক্ট চেকাররা একে ভুয়া বলে মত দেয়, তবে তা ফিল্টার করা হবে।

গত মাসে যুক্তরাষ্ট্রের স্পিকার ন্যান্সি পেলোসির একটি নকল ভিডিও সরাতে অস্বীকৃতি জানায় ফেসবুক। এতে পেলোসি ক্ষিপ্ত হন। তখন ফেসবুক কর্তৃপক্ষকে জিজ্ঞেস করা হয়, পেলোসির জায়গায় যদি জাকারবার্গকে নিয়ে এমন ভিডিও তৈরি হতো, তাহলে কি একই আচরণ করা হতো?

ডিপফেক নিয়ে উদ্বেগ প্রকাশ করে বিশেষজ্ঞরা বলছেন, সাধারণ ভুয়া খবর বা তথ্য সরানোর চেয়েও ডিপফেক কনটেন্ট সরানো কঠিন হয়ে যাবে।

পিউ রিসার্চের এক গবেষণায় বলা হয়, যুক্তরাষ্ট্রের বেশির ভাগ প্রাপ্তবয়স্ক ব্যক্তি মনে করেন, বিকৃত ভিডিও তাঁদের মধ্যে সাম্প্রতিক ঘটনা ও বিষয়গুলো নিয়ে বিভ্রান্তি সৃষ্টি করবে।

ডিপফেক ছড়িয়ে পড়লে এমন অবস্থা হবে, যখন মানুষ যখন নিজের চোখে দেখা বিষয়গুলো বিশ্বাস করবে না। মানুষের মধ্যে বিশ্বাস নষ্ট হয়ে যাবে। দুর্বৃত্তরা এ সুযোগ কাজে লাগিয়ে ভুয়া ভিডিও বা কনটেন্ট তৈরি করে ব্যক্তি, বিশেষ গোষ্ঠী ও সম্প্রদায়ের ওপর মিথ্যা প্রমাণের চেষ্টা চালাবে।

ডিপফেক টেকনোলজি
ইন্টারনেটের বদৌলতে এখন মিথ্যা তথ্য খুব দ্রুত চারিদিকে ছড়িয়ে পড়ে; ছবি : geckoandfly.com

বিশেষজ্ঞরা বলছেন, ডিপফেক ভিডিও ধরার জন্য স্বয়ংক্রিয় শনাক্তকরণ প্রক্রিয়া এখনো প্রাথমিক পর্যায়ে রয়েছে। তবে এ ক্ষেত্রে সচেতনতা ও প্রযুক্তি সহায়তা যুক্ত করে এ ধরনের কনটেন্টকে ফ্ল্যাগ দেখানোর সুযোগ থাকা উচিত। সামাজিক যোগাযোগমাধ্যমগুলোকেও এ বিষয়ে যথাযথ পদক্ষেপ নিতে হবে।

দেশে ডিপফেক নিয়ে গবেষণা করছে তথ্যপ্রযুক্তির গবেষণা প্রতিষ্ঠান প্রেনিউর ল্যাব। এর প্রতিষ্ঠাতা ও প্রধান নির্বাহী আরিফ নিজামী বলেন, ‘মেশিন লার্নিংয়ে মেশিন বলতে পারবে—একজন মানুষ কীভাবে কথা বলবে, হাসবে, বিভিন্ন অঙ্গভঙ্গি করবে। আমি শুধু একটা ছবি মেশিনে দিয়ে দেবো, আর কিছু ডায়ালগ লিখে দেবো। মেশিন ভিডিও তৈরি করে দেবে। ওই ভিডিও দেখলে মনে হবে সংশ্লিষ্ট ব্যক্তির ভিডিও।’ তিনি বলেন, ‘ভিডিওটি নিবিড়ভাবে দেখলে বোঝা যায় যে তা আসল না, নকল। অডিওতে তো বোঝার কোনও উপায়ই নেই।’ তিনি উল্লেখ করেন, বিভিন্ন সময়ে অনেকের কথোপকথনের অডিও ফাঁসের ঘটনা আমরা শুনি। ভবিষ্যতে মেশিন লার্নিং ব্যবহার করে এসব তৈরি করা হলে, বোঝার কোনও উপায় থাকবে না। তবে কেউ যদি কারও কণ্ঠস্বর ভালো বুঝে থাকেন, তাহলে তিনি তা চিহ্নিত করলেও করতে পারেন। আরিফ নিজামী জানান, কয়েকটি বিষয় ভালো করে খেয়াল করলে বোঝা যাবে ভিডিওটি ফেক না আসল। একটি হলো ফেক বা নকল ভিডিওতে মানুষের চোখের পাতা পড়ে না, বা চোখের পাতা পড়লেও অনেক গ্যাপ দিয়ে, যা মানুষের পক্ষে সম্ভব নয়। এছাড়া গলার মুভমেন্ট, ঘাড় বা হাতের নড়াচড়া ভালো করে খেয়াল করলেও বোঝা যাবে, ভিডিওটি আসল না নকল।

তিনি আরও জানান, টেক্সটের মাধ্যমেও এটা করা সম্ভব। রোবট কলাম লিখে দেবে, বোঝার উপায় থাকবে না এটা মানুষ না রোবট লিখেছে। ফলে সেটা যে কারও নাম দিয়ে প্রকাশ করা সম্ভব। এসব ভবিষ্যতে বড় ধরনের সমস্যা তৈরি করতে পারে। সচেতনতা তৈরি করে এসব ঠেকানো যেতে পারে। ধরা যাক, কারও কোনও ভিডিও তৈরি করে ফেসবুকে বা ইউটিউবে প্রকাশ করা হলো। অনেকে দেখার ফলে তা ভাইরাল হয়ে গেলো। হাজারো মানুষ তা দেখেও ফেললো। ভিডিওটা আসল না নকল তা প্রমাণ করা অনেক সময়সাপেক্ষ বিষয়। প্রমাণ করতে করতেই অনেক সময় চলে যাবে। ততক্ষণে ব্যক্তির ইমেজ শেষ বা যা ক্ষতি হওয়ার তা হয়ে যাবে। এ বিষয়ে সবার জানাশোনা থাকলে এটা আর বেশি ছড়াতে পারবে না।

হ্যানি ফরিদ
হ্যানি ফরিদ ২০ বছর ধরে ডিজিটাল জালিয়াতি শনাক্তকরণ প্রযুক্তি নিয়ে কাজ করছেন; ছবি : dartmouth.edu

জার্মানির একটি গবেষণা প্রতিষ্ঠানের নাম হলো ডিপট্রেস। এ প্রতিষ্ঠানটি ডিপফেক চিহ্নিত করতে প্রযুক্তিগত সমাধান দেয়। প্রতিষ্ঠানটির ২০১৮ সালে তৈরি এক প্রতিবেদনে দেখা যায়, ওই বছর ডিপট্রেস ৭৯৬টি ডিপফেক চিহ্নিত করে। পরের বছর ২০১৯ সালের প্রথম ৭ মাসে ১৪ হাজার ৬৭৮টি ডিপফেক চিহ্নিত করে। এসব ডিপফেক কেসের মধ্যে ৯৬ শতাংশ ছিল অসম্মতিসূচক অশ্লীল কনটেন্ট, যা একচেটিয়া নারী শরীরকে চিহ্নিত করেছে।

সংশ্লিষ্টরা বলছেন, কৃত্রিম বুদ্ধিমত্তার (এআই) প্রয়োগ আমাদের সমাজে ক্রমবর্ধমান ভূমিকা পালন করছে। কিন্তু এই নতুন প্রযুক্তির সম্ভাবনার হাত ধরে ঝুঁকিও আসে। এমন একটি ঝুঁকি হলো—ইচ্ছাকৃত মিথ্যা তথ্য ছড়িয়ে দিতে প্রযুক্তির অপব্যবহার। যদিও রাজনৈতিকভাবে অনুপ্রাণিত গুজবের বিস্তার নিশ্চিতভাবে কোনও নতুন ঘটনা নয়। প্রযুক্তিগত উন্নয়নে কারসাজি করে কন্টেন্ট সৃষ্টি এবং বিতরণকে অনেক সহজ এবং আগের চেয়ে অনেক কার্যকর করে দিয়েছে। এআই অ্যালগরিদম ব্যবহারের মাধ্যমে কোনও বিশেষ জ্ঞান ছাড়াই এখন ভিডিও দ্রুত মিথ্যায় পরিণত করা যায়, যাকে বলা হচ্ছে ডিপফেক।

প্রেনিউর ল্যাব ডিপফেক বিষয়ক একটি ই-বুক প্রকাশ করেছে ‘ডিপফেইকস ও গুজব’ নামে। সেই বইয়ে উল্লেখ করা হয়েছে— ডিপফেক করা হয় গতিবিধির নমুনায়, কারসাজি করা হয় কণ্ঠ ও মুখের অভিব্যক্তি দিয়ে। ছবির কারসাজি করা হয় নগ্নতা ও কৃত্রিম মুখমণ্ডল তৈরি করে। এছাড়া এআই উৎপন্ন টেক্সটের মাধ্যমে। বইয়ে আরও উল্লেখ রয়েছে, ডিপফেক প্রাথমিকভাবে অডিও এবং ভিডিও কনটেন্টের জন্য ব্যবহার হতো। পরে এতে যুক্ত হয়েছে টেক্সট। এছাড়া বইয়ে ডিপফেক ও গুজব নিয়ে বিস্তারিত আলোচনা করা হয়েছে।

সূত্র: প্রথম আলো, বাংলা ট্রিবিউন

Related posts

কী থাকছে অ্যান্ড্রয়েড ১৩ এই ভার্সনে?

News Desk

নক্ষত্রের জগতে সূর্য যেন এক বামন

News Desk

ইন্টারনেট অফ থিংস (IoT): স্মার্ট হোম থেকে স্বাস্থ্যসেবা পর্যন্ত সংযুক্ত বিশ্বের ভবিষ্যৎ

Amit Joy

Leave a Comment