×

আন্তর্জাতিক

আগামী দিনের যোদ্ধা কি তবে ‘কিলার রোবট’

Icon

কাগজ প্রতিবেদক

প্রকাশ: ১৮ মে ২০২৩, ০২:০২ পিএম

আগামী দিনের যোদ্ধা কি তবে ‘কিলার রোবট’
আগামী দিনের যোদ্ধা কি তবে ‘কিলার রোবট’
আগামী দিনের যোদ্ধা কি তবে ‘কিলার রোবট’
আগামী দিনের যোদ্ধা কি তবে ‘কিলার রোবট’
আগামী দিনের যোদ্ধা কি তবে ‘কিলার রোবট’
আগামী দিনের যোদ্ধা কি তবে ‘কিলার রোবট’
আগামী দিনের যোদ্ধা কি তবে ‘কিলার রোবট’
আগামী দিনের যোদ্ধা কি তবে ‘কিলার রোবট’
আগামী দিনের যোদ্ধা কি তবে ‘কিলার রোবট’
আগামী দিনের যোদ্ধা কি তবে ‘কিলার রোবট’

কিলার রোবট। প্রতীকী ছবি

যুদ্ধের একটি নতুন যুগের দ্বারপ্রান্তে দাঁড়িয়ে আছে মানব সভ্যতা। কৃত্রিম বুদ্ধিমত্তার দ্রুত বিকাশের এই যুগ সংঘাতের ভবিষ্যতকে দ্রুত গতিতে পরিবর্তন করছে। যেখানে একটি রোবট কারো আদেশ বা পরিচালনা ছাড়াই যে কোনো ধরনের বিপদ মোকাবেলায় প্রয়োজনীয় পদক্ষেপ নিতে পারে। কারণ প্রতিপক্ষ শনাক্ত, লক্ষ্যবস্তু নির্ধারণ, প্রতিপক্ষকে আক্রমণ বা গুলি করে হত্যার সিদ্ধান্ত নিতে পারে রোবট।

অফিসিয়ালি এই রোবটগুলোর নাম ‘প্রাণঘাতী স্বয়ংক্রিয় অস্ত্র ব্যবস্থা’ (লিথাল অটোনোমাস উইপন সিস্টেমস- এলএডব্লিউএস) হলেও ‘কিলার রোবট’ নামেই এসব অস্ত্র বেশি পরিচিত। ইতোমধ্যেই যুক্তরাষ্ট্র, চীন, যুক্তরাজ্য, ভারত, ইরান, ইসরায়েল, দক্ষিণ কোরিয়া, রাশিয়া, তুরস্কসহ বেশ কয়েকটি দেশ এই ধরনের অস্ত্র তৈরিতে প্রচুর বিনিয়োগ করেছে।

[caption id="attachment_431715" align="aligncenter" width="950"] প্রতীকী ছবি[/caption]

জাতিসংঘের একটি প্রতিবেদন অনুসারে, তুরস্ক নির্মিত কার্গু-২ মডেলের ড্রোনগুলো সম্পূর্ণ স্বয়ংক্রিয়ভাবে কার্যক্রম পরিচালনায় সক্ষম। পূর্বেও ২০২০ সালে তুর্কি-লিবিয়া সংঘর্ষে  লিবিয়ায় যোদ্ধাদের আক্রমণে এ ড্রোন ব্যবহার করে ছিলো তুরস্ক।

স্বয়ংক্রিয় এ ড্রোনগুলি ইউক্রেন যুদ্ধেও গুরুত্বপূর্ণ ভূমিকা পালন করছে। রাশিয়া ও ইউক্রেন উভয় দেশই তাদের শত্রুদের পরাস্ত করতে এ ড্রোন ব্যবহার করছে।

ইতোমধ্যেই বিশ্বব্যাপী বিশেষজ্ঞ, অ্যাক্টিভিস্ট এবং কূটনীতিকদের মধ্যে এই ধরনের মেশিন ব্যবহার, এর উপকারিতা এবং ঝুঁকি নিয়ে তীব্র বিতর্কের সৃষ্টি হয়েছে।

[caption id="attachment_431706" align="aligncenter" width="1068"] ড্রোন। ফাইল ছবি[/caption]

ক্রমবর্ধমান এই বিভক্ত ভূ-রাজনৈতিক ল্যান্ডস্কেপে, আন্তর্জাতিক সম্প্রদায় কি এই অস্ত্রগুলির বিষয়ে কোন ঐক্যমতে পৌঁছাতে পারবে? এই ধরনের অস্ত্রে সৃষ্ট নৈতিক, আইনগত এবং প্রযুক্তিগত হুমকির কারণে কি যুদ্ধক্ষেত্রে নামার আগেই এদের নিষিদ্ধ করা হতে পারে? নানা ঝুঁকির কারণে এই অস্ত্রগুলোর ওপর নিষেধাজ্ঞা দেয়াই কি বাস্তবসম্মত বিকল্প? রোবটিক্স ক্ষেত্রের শীর্ষস্থানীয় বিশেষজ্ঞদের কাছে এই প্রশ্নগুলি করা হলে তারা উত্তরে বলেন-

স্বয়ংক্রিয় অস্ত্র ব্যবস্থার ওপর সম্পূর্ণ নিষেধাজ্ঞা দেয়ার মতো সিদ্ধান্তে এখনই কোনো দেশ আগ্রহী হবে না। তবে নানা ধরনের মতবিরোধ থাকতেই পারে। তাই বলে এ অস্ত্র পারমাণবিক অস্ত্রের মত ঝুঁকিপূর্ণ না হওয়ায় পারমাণবিক অস্ত্রের মতো কঠোর নিষেধাজ্ঞার মুখেও পরবে না।

[caption id="attachment_431716" align="aligncenter" width="1360"] প্রতীকী ছবি[/caption]

তৃতীয় বিশ্বযুদ্ধের ঝুঁকি

গত মার্চের শেষের দিকে, লন্ডন-ভিত্তিক চ্যাথাম হাউসের গবেষণা সহযোগী ইয়াসমিন আফিনা, যুক্তরাজ্যের পার্লামেন্টের দ্বিতীয় চেম্বার হাউস অফ লর্ডসের কাছে একটি মর্মান্তিক ঘটনার বর্ণনা করেছিলেন, যে বর্ণনায় তিনি জানান কীভাবে মার্কিন জাতীয় নিরাপত্তা সংস্থা (এনএসএ) একবার ভুল করে একজন আল জাজিরা সাংবাদিককে আল-কায়েদার সদস্য বলে চিহ্নিত করেছিল। এর ফলে ওই সাংবাদিককে মার্কিন ওয়াচ লিস্টে রাখা হয়েছিল। তবে পরবর্তীতে ২০১৩ সালে নাসার সাবেক কর্মী এডওয়ার্ড স্নোডেন কিছু নথি ফাঁস করায় সত্যা ঘটনা সামনে আসে।

আফিনা আরো বলেন, এই ঘটনার পিছনে যে নজরদারি ব্যবস্থা কাজ করছিলো তা মুলত একটি ‘কিলার রোবট’।

অস্ট্রেলিয়ার সিডনির নিউ সাউথ ওয়েলস ইউনিভার্সিটির এআই বিশেষজ্ঞ টবি ওয়ালশ বলছেন, কিলার রোবট যে কোনো ধরনের উদ্বেগজনক ঘটনাকে উস্কে দিতে পারে।

হাউস অফ লর্ডসে জমা দেয়া লিখিত প্রমাণে ওয়ালশ জানান, আমরা জানি যখন একটি অনিশ্চিত এবং প্রতিযোগিতামূলক পরিবেশে একে অপরের বিরুদ্ধে কোনো জটিল কম্পিউটার সিস্টেম ব্যবহার করা হয় তখন কি ঘটতে পারে!

[caption id="attachment_431707" align="aligncenter" width="800"] ড্রোন। প্রতীকী ছবি[/caption]

তিনি আরো বলেন, দ্য ইন্টারসেপ্ট-এর তথ্যানুযায়ী, হিন্দুকুশ এলাকায় তালেবান এবং আল কায়েদার বিরুদ্ধে ২০১১-১৩ সালে যুক্তরাষ্ট্রের সামরিক অভিযানের পাঁচ মাস সময়ে, যারা ড্রোন হামলায় মারা গিয়েছিল তাদের প্রতি ১০ জনের মধ্যে বলতে গেলে ৯ জনই যুক্তরাষ্ট্রের সরাসরি টার্গেট ছিল না। এমন মারাত্মক ঘটনা তখনই ঘটেছে যখন কিনা রোবটের পেছনে সিদ্ধান্ত নেয়ার মতো অন্তত একজন মানুষ ছিলো। যিনি সেই চূড়ান্ত জীবন কিংবা মৃত্যুর সিদ্ধান্তটি নিয়েছিলেন। সে সময়ে এআই বা কৃত্রিম বুদ্ধিমত্তার পরিস্থিতিগত সচেতনতা ছিলো না। বা একজন ড্রোন পাইলট বা সেনা কর্মকর্তা পেছন থেকে সিদ্ধান্ত গ্রহণ করতেন। একটি সম্পূর্ণ স্বয়ংক্রিয় ড্রোনের ক্ষেত্রে এ পরিসংখ্যান আরও ভয়ংকর হওয়ার আশংকা রয়েছে। যার পেছনে সরাসরি কোনো মানুষের হাত নেই।

টবি ওয়ালশ আরও জানান, সময়ের সাথে সাথে, এসব কৃত্রিম বুদ্ধিমত্তা বা এআই আরও দক্ষ হয়ে উঠবে এবং মানব পাইলটদেরকেও এমনকি দক্ষতায় অতিক্রম করে যাবে কিংবা না করলেও তাদের অন্তত সমান হবে। তখন ভিন্ন প্রশ্ন সামনে আসবে। উদাহরণস্বরূপ, কিলার রোবটগুলি নিশ্চতভাবেই ভুল হাতে গিয়ে পড়বে, যার মধ্যে এমন লোকও রয়েছে যারা বেসামরিক নাগরিকদের বিরুদ্ধে এসব রোবট বা ড্রোনগুলো ব্যবহারে দ্বিধা করবে না। এগুলো সন্ত্রাসের একটি নিখুঁত অস্ত্র হয়ে উঠবে। কিলার রোবট যুদ্ধের প্রতিবন্ধকতাও কমিয়ে দেবে। যুদ্ধক্ষেত্র থেকে আমাদের আরও দূরে সরিয়ে, এসব কিলার রোবট যুদ্ধকে একটি বাস্তব ভিডিও গেমে পরিণত করবে। তবে টবি ওয়ালশ মনে করেন, বিপজ্জনক পরিস্থিতি এবং অবাঞ্ছিত ফলাফল বন্ধ করার একমাত্র উপায় হল ‘সার্কিট ব্রেকার’ ব্যবহার করা। স্টক মার্কেটে এই ধরনের পরিস্থিতি ঘটলে আমরা সহজভাবে এবং মুহূর্তের মধ্যে লেনদেন বন্ধ করে দিতে পারি। কিন্তু তৃতীয় বিশ্বযুদ্ধ শুরু হলে তা সহজে বন্ধ করা সম্ভব হবে না। তবে এর অর্থ এই নয় যে গবেষকদের স্বয়ংক্রিয় অস্ত্র ব্যবস্থা ব্যবহার করার পরিকল্পনা সম্পূর্ণ বাদ দেয়া উচিত। বরং এই প্রযুক্তি অন্যান্য ক্ষেত্রে সুফল বয়ে আনতে পারে।

উদাহরণস্বরূপ, আমরা যুদ্ধক্ষেত্রে শত্রুদের শনাক্ত করতে ব্যবহৃত (ড্রোন) রোবটগুলোর অ্যালগরিদম গাড়ির নিরাপত্তায় ব্যবহার করতে পারি, যা পথচারীদের সঙ্গে সংঘর্ষ বা দুর্ঘটনা এড়াতে ব্যবহৃত হবে। অবশ্যই এটি যুদ্ধক্ষেক্রে শত্রুদের পরাস্ত করার তুলনায় কম গুরুত্বপূর্ণ নয়। এ প্রযুক্তির ব্যবহারে সড়ক দুর্ঘটনা অনেকাংশে কমিয়ে আনা সম্ভব।

অতীতে রাসায়নিক অস্ত্র ব্যবহার করে বিশ্বে বিশৃঙ্খলা সৃষ্টি করা হয়ে ছিলো। তাই পরবর্তী সময়ে জাতিসংঘের রাসায়নিক অস্ত্র কনভেনশন রাসায়নিক অস্ত্র উন্নয়ন, উৎপাদন, মজুদ এবং ব্যবহারে বিভিন্ন নিষেধাজ্ঞা দেয়। যা বিশ্বজুড়ে যুদ্ধক্ষেত্রে রাসায়নিক অস্ত্রের অপব্যবহারকে সীমিত করেছে। এলএডব্লিউএস-এর অপব্যবহারের ঝুঁকির কারণে এত উন্নত প্রযুক্তিকে আমরা বাক্সবন্ধি করে রাখতে পারিনা। এর সঠিক ব্যহারে আমাদের যথাযথ ব্যবস্থা গ্রহণ করতে হবে বলে মনে করেন অনেকেই।

[caption id="attachment_431670" align="aligncenter" width="1377"] কিলার রোবাট। প্রতীকী ছবি[/caption]

লাভ এবং ঝুঁকি

 সামরিক দৃষ্টিকোণ থেকে স্বয়ংক্রিয় অস্ত্র ব্যবস্থা বা কিলার রোবট বা ড্রোন ব্যবহারের সুবিধা রয়েছে।

সেনা সদস্যদের সাহায্য ছাড়াই যুদ্ধক্ষেত্রের এসব কিলার রোবট বা ড্রোন উল্লেখযোগ্য কিছু কাজ সম্পাদন করতে সক্ষম যার ফলে হতাহতের ঝুঁকি কম হবে। এলএডব্লিউএস-এর সমর্থকদের মতে, এই রোবটের ব্যবহার যুদ্ধক্ষেত্রে পক্ষপাত দূর করতে এবং আবেগ প্রবণ হয়ে সৈন্যদের সিদ্ধান্ত গ্রহণের মত ত্রুটি এড়াতে পারবে। এর ব্যবহারে সেনা সদস্যদের দুর্ঘটনাজনিত হতাহতের সংখ্যা কমাতে পারে।

[caption id="attachment_431708" align="aligncenter" width="1599"] ড্রোন। ফাইল ছবি[/caption]

রোবট বা ড্রোনগুলো প্রতিরক্ষামূলক কাজের জন্য মোতায়েন করা যেতে পারে।  সনাক্তকরণ অ্যালগরিদমগুলি বাজপাখির মতো ক্ষিপ্রগতি সম্পন্ন, মানুষের চেয়ে দক্ষ এবং নির্ভুলভাবে সম্ভাব্য হুমকি সনাক্ত ও নির্মূলে সক্ষম।

তবু অনেক বিশেষজ্ঞ কোনও তদারকি ছাড়াই প্রযুক্তিগত ত্রুটির সম্ভাবনা থেকে শুরু করে আন্তর্জাতিক আইনের লঙ্ঘন এবং আবেগহীন মেশিনের জীবন ও মৃত্যুর সিদ্ধান্ত নেয়ার বিষয়ে উদ্বেগ প্রকাশ করেছেন।

এই সমস্ত উদ্বেগের কেন্দ্রবিন্দু হল জবাবদিহিতার প্রশ্ন।

২০১৯ সালে, ১২৬টি দেশ ইউনাইটেড ন্যাশনস কনভেনশন অন সার্টেন কনভেনশনাল উইপন্স (সিসিডব্লিউ) স্বয়ংক্রিয় অস্ত্রের বিষয়ে উদ্বেগ মোকাবেলায় জাতিসংঘ কর্তৃক নিযুক্ত বিশেষজ্ঞদের সুপারিশকৃত ১১ টি নির্দেশিকা নীতিতে সম্মত হয়।

এই নীতিগুলির মধ্যে একটি সিদ্ধান্ত ছিল, আন্তর্জাতিক মানবিক আইন এই ধরনের অস্ত্রের সম্ভাব্য বিকাশের জন্য সম্পূর্ণরূপে প্রযোজ্য হবে। তবে বিশেষজ্ঞরা বলছেন, যুদ্ধক্ষেক্রে সেই নীতি কীভাবে প্রয়োগ করা হবে তা স্পষ্ট নয়। উদাহরণস্বরূপ, যদি একটি রোবট কোনো যুদ্ধাপরাধ করে, তাহলে কি দায়িত্বে থাকা কমান্ডিং অফিসারকে দায়ী করা হবে? নাকি তাকে দায়ী করা হবে , যে এই মেশিনটি স্থাপন করার সিদ্ধান্ত নিয়েছে? নাকি অস্ত্র প্রস্তুতকারী দায়ী হবে?

[caption id="attachment_431711" align="aligncenter" width="1500"] কিলার রোবট। প্রতীকী ছবি[/caption]

রাজনৈতিক না আইনগত নিয়ন্ত্রণ?

স্বয়ংক্রিয় অস্ত্র ব্যবস্থা ব্যবহারের আরো একটি বড় প্রশ্ন হলো- এটি কি আইনগতভাবে বাধ্যতামূলক কিছু নিয়মের মাধ্যমে পরিচালিত হবে নাকি রাজনৈতিক কর্মীদের ঘোষণা অনুসারে।

একটি রাজনৈতিক ঘোষণা অনেক দিকে রূপ নিতে পারে। তবে সবার কাছে গ্রহণযোগ্য ঘোষণায় প্রধান শক্তিধর দেশগুলো এই বিষয়ে তাদের একমত হওয়ার পয়েন্টগুলো প্রকাশ করবে এবং মেনে চলার প্রতিশ্রুতি দেবে। ২০২২ সালের জানুয়ারিতে স্বাক্ষরিত পারমাণবিক যুদ্ধ প্রতিরোধ এবং অস্ত্র প্রতিযোগিতা এড়ানোর বিষয়ে চীন, রাশিয়া, যুক্তরাজ্য, যুক্তরাষ্ট্র এবং ফ্রান্সের যৌথ বিবৃতিটির মতোও তা হতে পারে। যেখানে দেশগুলো নিশ্চিত করেছে, একটি পারমাণবিক যুদ্ধে কখনোই জয়ী হওয়া যায় না এবং কখনই লড়াই করা উচিত নয়।

শান্তির প্রতি আন্তর্জাতিক দৃষ্টিভঙ্গি

গত ফেব্রুয়ারিতে, কোস্টারিকার সরকার, স্থানীয় বেসরকারি সংস্থা ‘ফানপ্যাডেম’-এর সঙ্গে একটি সম্মেলনের আয়োজন করে যেখানে লাতিন আমেরিকা এবং ক্যারিবিয়ান প্রায় প্রতিটি দেশের প্রতিনিধিরা অংশগ্রহণ করে। এ সম্মেলনে ৩০টিরও বেশি রাষ্ট্র, স্বয়ংক্রিয় অস্ত্র ব্যবস্থার ঝুঁকিগুলি তুলে ধরে আন্তর্জাতিক সম্প্রদায়কে ‘আন্তর্জাতিক আইনি কাঠামোর বিকাশ ও শক্তিশালীকরণ’-এর মাধ্যমে যথাযথ ব্যবস্থা গ্রহণের আহ্বান জানিয়েছে।

[caption id="attachment_431712" align="aligncenter" width="426"] ড্রোন। প্রতীকী ছবি[/caption]

বিশ্বাস এবং শ্রদ্ধা

বিশ্লেষকরা বলছেন, ক্রমবর্ধমান ভূ-রাজনৈতিক উত্তেজনার মধ্যে, অনেক দেশই চিন্তিত যে তারা প্রতিদ্বন্দ্বীদের বিশ্বাস করতে পারবে কিনা।

ওয়ালশ বলেন, যেহেতু সিসিডব্লিউ এর মতো আন্তর্জাতিক কনভেনশনগুলি ঐকমত্যের ওপর নির্ভর করে, সেহেতু কেবল একটি দেশ দ্বিমত প্রকাশ করলেই ‘প্রাণঘাতী স্বয়ংক্রিয় অস্ত্র ব্যবস্থা’র ব্যবহার বা এ প্রযুক্তির অগ্রগতি বন্ধ হয়ে যেতে পারে।

বুলানি বলেন, আমি মনে করি কিছু রাষ্ট্র উদ্বিগ্ন যে তারা যদি একটি উচ্চাভিলাষী নিয়ন্ত্রক কাঠামোতে একমত হয় তবে তারা সম্ভাব্যভাবে নিজেদের পায়ে কুড়াল মারবে , আর যদি তাদের প্রতিপক্ষরা নিয়ম মেনে না চলে এবং আইন তৈরি না করে, তবে এটি তাদের কৌশলগত অসুবিধায় ফেলবে। তবে, এই ঝুঁকির অর্থ এই নয় যে, দায়িত্বশীল আচরণের জন্য আমাদের নতুন নিয়মে একমত হওয়ার চেষ্টা করা উচিত নয়।

[caption id="attachment_431714" align="aligncenter" width="900"] কিলার রোবট। প্রতীকী ছবি[/caption]

এদিকে, একটি বৈশ্বিক উদ্বেগ রয়েছে যে কোনো আন্তর্জাতিক আইন দ্রুত গতিতে প্রযুক্তির অগ্রগতির সঙ্গে তাল মিলিয়ে চলতে সক্ষম হবে কিনা।

ওয়ালশ আরো বলেন, আইন, প্রবিধান এবং ভূ-রাজনীতির বাইরে, নানা জটিল মুহুর্তে সিদ্ধান্ত নেয়ার ক্ষেত্রে মানুষের প্রতি সহানুভূতিহীন মেশিনের ব্যবহার নিয়ে সমালোচনা রয়েছে। অনেকের মতে এটি মৌলিক অধিকারের লঙ্ঘন এবং এটি মানুষের মর্যাদার জন্য অসম্মানজনক।

সূত্র : আল জাজিরা ও সিএনএন

সাবস্ক্রাইব ও অনুসরণ করুন

সম্পাদক : শ্যামল দত্ত

প্রকাশক : সাবের হোসেন চৌধুরী

অনুসরণ করুন

BK Family App