ভারতের নির্বাচনে যে ধরনের ঝুঁকি তৈরি করতে পারে কৃত্রিম বুদ্ধিমত্তা ও ডিপফেক
- নয়া দিগন্ত অনলাইন
- ১৭ মে ২০২৪, ২১:২১
গত বছরের নভেম্বর মাসে মুরলীকৃষ্ণন চিন্নাদুরাই ব্রিটেনে একটা তামিল অনুষ্ঠানের লাইভ সম্প্রচার দেখছিলেন। হঠাৎই একটা অদ্ভুত জিনিস লক্ষ্য করেন তিনি।
ওই অনুষ্ঠানে এক নারী বক্তব্য পেশ করছিলেন। তিনি আর কেউ নন, এলটিটিই বা লিবারেশন টাইগার্স অফ তামিল ইলমের প্রধান ভেলুপিল্লাই প্রভাকরণের মেয়ে দুয়ারাকা।
এখন সমস্যা হলো দুয়ারাকার মৃত্যু হয়েছে এক দশকেরও আগে। ২০০৯ সালে শ্রীলঙ্কার গৃহযুদ্ধের সমাপ্তির দিনগুলোতে বিমান হামলায় মৃত্যু হয়েছিল তার। ২৩ বছর বয়সী এই নারীর লাশ আর খুঁজে পাওয়া যায়নি।
অথচ ভিডিওতে তাকে দেখা যাচ্ছিল একেবারে চোখের সামনে। শুধু তাই নয়, ব্রিটেন থেকে লাইভ সম্প্রচারিত অনুষ্ঠানে বক্তব্য পেশ করা এই নারী দৃশ্যতই একজন মধ্যবয়স্কা। বিশ্বের বিভিন্ন প্রান্তে থাকা তামিলদের তিনি আহ্বান জানাচ্ছেন স্বাধীনতার লক্ষ্যে রাজনৈতিক সংগ্রামকে এগিয়ে নিয়ে যাওয়ার জন্য।
ভারতের দক্ষিণাঞ্চলীয় রাজ্য তামিলনাড়ুর বাসিন্দা মুরলীকৃষ্ণন চিন্নাদুরাই একজন ফ্যাক্ট-চেকার। অর্থাৎ পর্যবেক্ষণ করে তিনি বলে দেন কোনো তথ্য সঠিক না ভুয়া।
ভিডিওটি খুঁটিয়ে খুঁটিয়ে দেখেন তিনি। থেমে থেমে চলছিল ওই ভিডিওটি। এরপরই চিন্নাদুরাই বুঝতে পারেন ত্রুটিটি ঠিক কোথায়। ভিডিওতে দুয়ারাকার যে ছবি দেখানো হচ্ছে সেটি আসলে কৃত্রিম বুদ্ধিমত্তা বা আর্টিফিশিয়াল ইন্টেলিজেন্স (এআই) দিয়ে তৈরি।
চিন্নাদুরাইয়ের কাছে তৎক্ষণাৎ পুরো বিষয়টি স্পষ্ট হয়ে যায়। তিনি বুঝতে পারেন এই ভিডিওর মাধ্যমে গণ্ডগোল বাঁধানোর চেষ্টা চলছে।
দক্ষিণ ভারতীয় ওই ফ্যাক্ট চেকার ব্যাখ্যা করে বলেন, ‘এটা এই রাজ্যে (তামিলনাড়ু) একটা আবেগের ইস্যু এবং নির্বাচন আসন্ন। এই পরিস্থিতিতে ভুল তথ্য কিন্তু দ্রুত ছড়িয়ে পড়তে পারে।’
ভারতে যে সময় নির্বাচন চলছে, তখন কৃত্রিম বুদ্ধিমত্তার সাহায্যে তৈরি কিছু এড়ানো অসম্ভব- তা সে ভিডিও হোক, বিভিন্ন ভারতীয় ভাষায় তৈরি ব্যক্তিগত করা অডিও বার্তা বা প্রার্থীর কণ্ঠস্বরে ভোটারদের কাছে করা স্বয়ংক্রিয় ফোন কল হোক।
ভারতের শহীদ শেখ একজন কনটেন্ট ক্রিয়েটর। তার কাছে কৃত্রিম বুদ্ধিমত্তার ব্যবহার করে কনটেন্ট তৈরির বিষয়টি বেশ মজাদার। বিশেষত সেই সব কনটেন্ট যেখানে ভারতীয় রাজনীতিবিদদের এক নতুন অবতারে দেখানো হয়েছে যেমনটা আগে কখনো দেখা যায়নি। উদাহরণস্বরূপ অ্যাথলেইজার (খেলোয়াড়দের পোশাক এবং দৈনন্দিন পরিধানের মিশেলে তৈরি এক ধরনের পোশাক) পরা রাজনৈতিক নেতা কিম্বা নাচ-গানে মশগুল রাজনীতিবিদ।
কিন্তু ধীরে ধীরে যেভাবে আর্টিফিশিয়াল ইন্টেলিজেন্সের টুলগুলো (এআই টুলস) আরো উন্নত হয়ে উঠেছে, সেই সাথে নতুন একটি চিন্তা ঘিরে ধরেছে বিশেষজ্ঞদের। এই চিন্তার কারণ হলো কৃত্রিম বুদ্ধিমত্তা আরো পরিশীলিত হয়ে ওঠার সাথে সাথে ভুয়া তথ্যকে ‘সঠিক বলে দাবি জানিয়ে’ ছড়িয়ে দেয়ার সম্ভাবনা।
এ বিষয়ে ভারতের সাবেক প্রধান নির্বাচন কমিশনার এস ওয়াই কুরেশি বলেছেন, ‘গুজব বরাবরই নির্বাচনী প্রচারের সাথে মিশে ছিল। কিন্তু সোশ্যাল মিডিয়ার যুগে এটা দাবানলের মতো ছড়িয়ে পড়তে পারে।’
‘সত্যিটা হলো, পুরো দেশে এই আগুন ছড়িয়ে পড়ার ভয় রয়েছে।’
প্রযুক্তির সাহায্যে শব্দ ও বার্তায় হেরফের
সাম্প্রতিক প্রযুক্তিগত উন্নতির সুবিধা নেয়ার ক্ষেত্রে ভারতীয় রাজনৈতিক দলগুলোই কিন্তু প্রথম নয়। সীমান্তের ওপারে, পাকিস্তানে, এই একই প্রযুক্তি ব্যবহার করে এক রাজনৈতিক সমাবেশে সমবেত মানুষকে সম্বোধন করেছিলেন দেশটির সাবেক প্রধানমন্ত্রী ইমরান খান।
আর খোদ ভারতে প্রধানমন্ত্রী নরেন্দ্র মোদী ইতোমধ্যে এই উন্নত প্রযুক্তি ব্যবহার করে এসেছেন কার্যকর নির্বাচনী প্রচার চালানোর জন্য।
তিনি হিন্দিতে জনতাকে সম্বোধন করেন এবং মুহূর্তের মধ্যে তার সেই বক্তব্য তামিলে অনুবাদ করে দেয় কৃত্রিম বুদ্ধিমত্তার সাহায্যে তৈরি ‘ভাষিণী’ (এআই টুল)। এই ‘ভাষিণী’ ভারত সরকারের তৈরি করা টুল।
এই কৌশলগুলো কিন্তু ব্যবহার করা যেতে পারে শব্দ এবং বার্তা হেরফের করার ক্ষেত্রেও।
গত মাসেই দুটো ভিডিও ভাইরাল হয়েছিল যেখানে বলিউড তারকা রণবীর সিং এবং আমির খানকে কংগ্রেসের হয়ে প্রচার করতে দেখা যায়।
ওই ভিডিও ‘ডিপফেক’ জানিয়ে দু’জন অভিনেতাই পুলিশের কাছে অভিযোগ দায়ের করেছিলেন। একইসাথে উল্লেখ করেছিলেন যে তাদের অনুমতি ছাড়াই বানানো হয়েছিল ওই ভিডিও।
এর পরপরই, গত ২৯ এপ্রিল নরেন্দ্র মোদি কিন্তু এই প্রযুক্তির অপব্যবহার সম্পর্কে উদ্বেগ প্রকাশ করেছিলেন। কৃত্রিম বুদ্ধিমত্তা ব্যবহার করে তার এবং বিজেপির অন্যান্য নেতাদের বক্তব্য বিকৃত করার বিষয়ে উদ্বেগ জানিয়েছিলেন স্বয়ং প্রধানমন্ত্রী।
পরের দিন, এই ঘটনায় পুলিশ দুজনকে গ্রেফতার করে। স্বরাষ্ট্রমন্ত্রী অমিত শাহের ভিডিও কেটে ছেঁটে উপস্থাপন করার অভিযোগ ছিল তাদের বিরুদ্ধে।
যাদের গ্রেফতার করা হয়েছিল, তাদের মধ্যে একজন কংগ্রেস কর্মী এবং অন্যজন আম আদমি পার্টির কর্মী।
অন্যদিকে, কেন্দ্রে ক্ষমতাসীন ভারতীয় জনতা পার্টির বিরুদ্ধেও একই অভিযোগ তুলছে বিরোধী দলগুলো।
রাজনীতি এবং প্রতিযোগিতা
সংশ্লিষ্ট মহলের বক্তব্য অনুযায়ী এই ঘটনায় গ্রেফতার করা হলেও, জাল এবং বিকৃত কনটেন্টের সাথে মোকাবিলা করার জন্য তেমন কোনো আইনি ব্যবস্থা ভারতে নেই।
তথ্য ও নিরাপত্তা বিষয়ক গবেষক শ্রীনিবাস কোডালি বিষয়টার ব্যাখ্যা করে বলেন, এর অর্থ হলো আপনি যদি কোনো ভুল কাজ করতে গিয়ে ধরা পড়েন যান, তাহলে আপনাকে হালকা শাস্তি দিয়ে ছেড়ে দেয়া হবে।
এই পরিস্থিতিতে ব্যক্তিগত আদর্শ এবং নীতির ওপর ভিত্তি করেই কোন কাজ করবেন আর কোনটা করবেন না সেই সিদ্ধান্ত নিয়ে থাকেন কনটেন্ট ক্রিয়েটররা। সে কথা বিবিসিকেও জানিয়েছেন তারা।
একইসাথে বিবিসি জানতে পেরেছে যে রাজনীতিবিদরা কনটেন্ট ক্রিয়েটরদেরকে বিরোধীদের অশ্লীল ছবি এবং বিকৃত ভিডিও তৈরি করার কথাও বলেছেন। উদ্দেশ্য একটাই, রাজনৈতিক প্রতিপক্ষের ভাবমূর্তি জনতার কাছে নষ্ট করা।
এ বিষয়ে নিজের অভিজ্ঞতার কথা বিবিসির সাথে ভাগ করে নিয়েছেন ‘দ্য ইন্ডিয়ান ডিপফেকার’র (টিআইডি) প্রতিষ্ঠাতা দিব্যেন্দ্র সিং জাদাউন। টিআইডি বিনামূল্যে কৃত্রিম বুদ্ধিমত্তা সফ্টওয়্যার ব্যবহার করে রাজনীতিবিদদের জন্য প্রচারমূলক কনটেন্ট তৈরি করতে সাহায্য করে।
তিনি বলেছেন, একবার আমাকে একবার একটা আসল ভিডিওর ডিপফেক তৈরি করতে বলা হয়েছিল। এর কারণ আসল ভিডিওটা ব্যাপকভাবে শেয়ার করা হলে (ওই ভিডিওতে) দৃশ্যমান রাজনীতিবিদের ভাবমূর্তি খারাপ হতে পারে।
‘আর ঠিক সেই কারণেই ওই নেতার দল চেয়েছিল যে আমি একটা ডিপফেক ভিডিও তৈরি করি যেটা ওরা আসল বলে প্রচার করতে পারে।’
জাদাউন দাবি করেছেন তার সংস্থার তৈরি প্রতিটা ভিডিওতে বিধিবদ্ধ সতর্কবার্তা থাকে যে সেটা আসল নয় যাতে কোনোরকম বিভ্রান্তি না তৈরি হয়। তা সত্ত্বেও বিষয়টা নিয়ন্ত্রণে আনাটা এখনো কঠিন।
দ্রুততার সাথে ছড়িয়ে পড়া ভুল তথ্য
পশ্চিমবঙ্গের এক মার্কেটিং এজেন্সিতে কাজ করেন শাহিদ শেখ। তার তৈরি কনটেন্ট রাজনীতিবিদ বা রাজনৈতিক দলগুলো যে সামাজিক যোগাযোগমাধ্যমে তাকে (শাহিদ শেখকে) ক্রেডিট না দিয়েই শেয়ার করে থাকে সে বিষয়টি লক্ষ্য করেছেন শেখ।
তিনি বলেন, একজন রাজনীতিবিদ কোনো প্রসঙ্গ ছাড়াই আমার আঁকা নরেন্দ্র মোদির ছবি ব্যবহার করেছিলেন এবং ছবিটা যে কৃত্রিম বুদ্ধিমত্তার সাহায্যে তৈরি করা হয়েছে, সে কথারও উল্লেখ করেননি তিনি।
এখন ডিপফেক কনটেন্ট তৈরি করা এতটাই সহজ হয়ে গেছে যে কেউ তা করতে পারে।
দিব্যেন্দ্র জাদাউন ব্যাখ্যা করেছেন, আগে এই কাজটা করতে সাত থেকে আট দিন সময় লাগত, এখন তিন মিনিটেই তৈরি হয়ে যায়। যেটা দরকার, সেটা হলো একটা কম্পিউটার।
এদিকে, দুই ব্যক্তির মধ্যে ভুয়ো ফোন কল করার বিষয়টা কতটা সহজ তা বিবিসি টিম প্রত্যক্ষ করেছে।
আশ্চর্যের বিষয় হলো, এই ফোনালাপ কিন্তু যে কোনো দুই ব্যক্তির মধ্যে ছিল না। ছিল আমার এবং সাবেক মার্কিন প্রেসিডেন্টের মধ্যে!
এতটা ঝুঁকি থাকা সত্ত্বেও, ভারত প্রাথমিকভাবে বলেছিল যে তারা কৃত্রিম বুদ্ধিমত্তা সম্পর্কিত আইন প্রণয়নের কথা ভাবছে না। তবে ছবিটা বদলে যায় এ বছরের মার্চ মাসে।
‘মোদি কি ফ্যাসিবাদী?’- এই প্রশ্নের জবাবে গুগলের জেমিনি চ্যাটবটের উত্তরকে ঘিরে বিতর্ক শুরু হয়। মার্চ মাসে এই ঘটনার পরেই সরকার পদক্ষেপ নেয়।
তথ্য ও প্রযুক্তি প্রতিমন্ত্রী রাজীব চন্দ্রশেখর সে সময় জানিয়েছিলেন, এটা ভারতের প্রযুক্তি আইনের লঙ্ঘন করা।
তখন থেকেই ভারত সরকার প্রযুক্তি প্রতিষ্ঠানগুলোকে জেনারেটিভ এআইয়ের ক্ষেত্রে ‘কম পরীক্ষা নিরীক্ষা হয়েছে’ এবং ‘নির্ভরযোগ্য নয়’ এমন মডেল বা টুল প্রকাশের আগে সরকারের অনুমতি নেয়ার নির্দেশ দেয়।
‘এআই টুলের’ এমন কোনো উত্তর যা নির্বাচনি প্রক্রিয়াতে প্রভাব ফেলতে পারে তার বিষয়েও প্রযুক্তি সংস্থাগুলোকে সতর্ক করা হয়েছিল।
কিন্তু এটাই যথেষ্ট নয়। ভুয়া কনটেন্ট প্রকাশ্যে আনাটা কঠিন কাজ হয়ে দাঁড়াচ্ছে বলেই জানিয়েছেন ফ্যাক্ট-চেকাররা। নির্বাচনের সময় যখন ভুল তথ্য ব্যাপকভাবে ছড়িয়ে পড়তে থাকে সে সময় এই কাজটা আরো কঠিন হয়ে পড়ে।
মিডিয়ার ওপর নজর রাখে- এমন এক সংগঠন পরিচালনা করেন তামিলনাড়ুর মুরলীকৃষ্ণন আন্নাদুরাই।
তার কথায়, ‘তথ্য ঘণ্টায় ১০০ কিলোমিটার বেগে ভ্রমণ করে। আর যে তথ্য আমরা ভুল বলে আখ্যা দিয়ে থাকি তার গতি হলো ঘণ্টায় ২০ কিলোমিটার।’
শ্রীনিবাস কোদালি জানিয়েছেন, ভুয়া কনটেন্ট মূলধারার মিডিয়াতেও ছড়িয়ে পড়ছে।
‘তা সত্ত্বেও নির্বাচন কমিশন কৃত্রিম বুদ্ধিমত্তা নিয়ে প্রকাশ্যে নীরবতা পালন করছে,’ বলেছেন তিনি।
‘এর জন্য কোনো আইন নেই। কোনো রকম আইন-কানুন তৈরি করার বদলে তারা বিষয়টি প্রযুক্তি সংস্থাগুলোর স্বনিয়ন্ত্রণের ওপর ছেড়ে দিয়েছে।’
বিশেষজ্ঞরা জানিয়েছেন এর কোনো সুনির্দিষ্ট সমাধানও নেই।
এস ওয়াই কুরেশি বলছেন, কিন্তু এই মুহূর্তে যারা ভুয়া ভিডিও অন্যদের পাঠাচ্ছে, তাদের বিরুদ্ধে যদি ব্যবস্থা নেয়া হয়, তাহলে হয়তো অন্যরা যাচাই না করা তথ্য শেয়ার করতে ভয় পাবে। সূত্র : বিবিসি
আরো সংবাদ
-
- ৫ঃ ৪০
- খেলা
-
- ৫ঃ ৪০
- খেলা