ইস্রায়েলের গসপেল এআই সিস্টেম কীভাবে কাজ করে? যা সেকেন্ডের মধ্যে বোমা হামলার লক্ষ্যবস্তু নির্বাচন করে
আজকের যুগে শুধু বুলেট আর ট্যাংক দিয়ে যুদ্ধ হচ্ছে না, কম্পিউটারের বন্ধ ঘরে লেখা ‘কোড’ এবং ‘অ্যালগরিদম’ দিয়ে সিদ্ধান্ত নেওয়া হচ্ছে। একটি মেশিন কল্পনা করুন যেটি চোখের পলকে হাজার হাজার মানুষের ডেটা স্ক্যান করে এবং সেকেন্ডের মধ্যে বলে দেয় কোন ব্যক্তিকে লক্ষ্যবস্তু করা হয়েছে বা কোন বিল্ডিংয়ে বোমা ফেলা হয়েছে। এটি কোনো সায়েন্স-ফিকশন ছবির গল্প নয়, বাস্তবতা। ইসরায়েলের সেনাবাহিনী একই ধরনের কৃত্রিম বুদ্ধিমত্তা (AI) সিস্টেম ব্যবহার করছে, যার নাম ‘হাবসোরা’ বা ‘গসপেল’।
এই সিস্টেমটি যুদ্ধক্ষেত্রে ‘ডিজিটাল আই’-এর মতো কাজ করে, এমন লক্ষ্যগুলি বাছাই করে যা মানুষ কয়েক সপ্তাহের কঠোর পরিশ্রমের পরেও খুঁজে পায় না। কিন্তু যন্ত্রকে এতটা বিশ্বাস করা কি ঠিক? একটি সফ্টওয়্যার কি সিদ্ধান্ত নিতে পারে কার জীবন নেওয়া উচিত এবং কার জীবন নেওয়া উচিত নয়? এ নিয়ে বিতর্ক ও সমালোচনা থাকলেও নির্বিচারে এই প্রযুক্তি ব্যবহার করছে ইসরাইল। আসুন, বুঝি এই ‘গসপেল’ ব্যবস্থা কি? আর এটা কিভাবে সারা বিশ্বের জন্য আলোচনার বিষয় হয়ে উঠেছে।
গসপেল কি? এটা কিভাবে কাজ করে?
‘গসপেল’ বা ‘হাবসোরা’ একটি অত্যন্ত শক্তিশালী AI ভিত্তিক সিস্টেম যা ইসরায়েলি সামরিক বাহিনী দ্বারা তৈরি করা হয়েছে। এটি প্রস্তুত করেছে ইসরায়েলের বিখ্যাত গোয়েন্দা ইউনিট ‘ইউনিট 8200’। এটি একটি বিশাল ‘ডেটা প্রসেসিং প্লান্ট’। এই ব্যবস্থা দিনরাত কাজ করে এবং বিভিন্ন উৎস থেকে তথ্য সংগ্রহ করে।
- স্যাটেলাইট ছবি: আকাশ থেকে তোলা ছোট-বড় প্রতিটি কাজের ছবি।
- ড্রোন ফুটেজ: যুদ্ধ অঞ্চলের উপর দিয়ে উড়ন্ত ড্রোন থেকে লাইভ ভিডিও।
- ইলেকট্রনিক সংকেত: মোবাইল ফোন কথোপকথন, রেডিও বার্তা এবং ইন্টারনেট ব্যবহার।
- পুরানো রেকর্ড: শত্রু অবস্থানের পুরানো ডাটাবেস।
এই AI সিস্টেম কয়েক সেকেন্ডের মধ্যে লক্ষ লক্ষ তথ্যকে সংযুক্ত করে। কোন বাড়িতে সন্দেহজনক গতিবিধি আছে, কোথায় অস্ত্রের মজুদ আছে বা কোথা থেকে রকেট ছোড়া হতে পারে তা দেখে। এর পরে, এই সিস্টেমটি সেই জায়গাগুলির একটি তালিকা তৈরি করে এবং সেনা অফিসারদের বোমা ফেলার পরামর্শ দেয়।
এর গতি মানুষের চেয়ে 50 গুণ বেশি
ইসরায়েলের এই নতুন এআই সিস্টেমের সবচেয়ে আশ্চর্যজনক বৈশিষ্ট্য হল এর অবিশ্বাস্য গতি, যা মানুষের মস্তিষ্কের চেয়ে বহুগুণ দ্রুত কাজ করে। যদি আমরা পুরানো সময়ের কথা বলি, প্রায় 20 জন অভিজ্ঞ সামরিক গোয়েন্দা কর্মকর্তা ম্যাপ, ফটোগ্রাফ এবং গোয়েন্দা নথি স্ক্যান করে এক বছরের কঠোর পরিশ্রমের পরে 50 থেকে 100টি লক্ষ্যমাত্রা নির্বাচন করতে পারেননি। কিন্তু গসপেল (হাবসোরা) যুদ্ধের এই ঐতিহ্যবাহী পদ্ধতিকে সম্পূর্ণরূপে বদলে দিয়েছে। যদিও মানুষের লক্ষ্য খুঁজে পেতে কয়েক মাস সময় লাগবে, এই সিস্টেমটি মাত্র 10 থেকে 12 দিনের মধ্যে 200টিরও বেশি সুনির্দিষ্ট সামরিক লক্ষ্যবস্তু চিহ্নিত করে।
আজকের ডিজিটাল ওয়ারফেয়ার পলিসিতে, এর সক্ষমতা এতটাই বেড়েছে যে এই সিস্টেমটি একাই দিনে প্রায় 100টি সম্ভাব্য লক্ষ্যমাত্রা প্রস্তাব করার ক্ষমতা রাখে। এ কারণে এটি ইসরায়েল সেনাবাহিনীর মধ্যে ‘টার্গেট ফ্যাক্টরি’ নামে পরিচিত। আধুনিক কারখানায় যেমন মেশিনের মাধ্যমে খুব দ্রুত পণ্য তৈরি হয়, তেমনি এই এআই সিস্টেম ক্লান্ত না হয়ে এবং না থামিয়ে যুদ্ধক্ষেত্রের জন্য নতুন লক্ষ্যের তালিকা তৈরি করে রাখে। প্রযুক্তিগতভাবে বলতে গেলে, এটি মানুষের চেয়ে প্রায় 50 গুণ বেশি কার্যকর প্রমাণিত হচ্ছে।
গাজা যুদ্ধে ব্যাপকভাবে ব্যবহৃত
2021 সালের সংঘাতে ইসরায়েল এই সিস্টেমের একটি ট্রেলার দেখিয়েছিল, কিন্তু 2023 সালের গাজা যুদ্ধে এটি ব্যাপকভাবে ব্যবহৃত হয়েছিল। পরিসংখ্যান অনুসারে, এই সিস্টেমের সাহায্যে ইসরায়েলি সেনাবাহিনী 12,000 টিরও বেশি সম্ভাব্য লক্ষ্যবস্তু চিহ্নিত করেছে।
শুধু তাই নয়, ‘গসপেল’ নিয়ে আরেকটি সিস্টেম কাজ করে যাকে বলে ‘ফায়ার ফ্যাক্টরি’। গসপেল টার্গেট বাছাই করার সাথে সাথে ফায়ার ফ্যাক্টরি সিদ্ধান্ত নেয় কোন ফাইটার জেট সেই টার্গেটে আক্রমণ করতে যাবে, কত কিলো বোমা ব্যবহার করা হবে এবং কোন সময়ে আক্রমণ করা হবে। অর্থাৎ টার্গেট সিলেক্ট করা থেকে শুরু করে অ্যাটাক করা পর্যন্ত সবকিছুই কম্পিউটারের নিয়ন্ত্রণে হয়।
গসপেল এবং ল্যাভেন্ডার মধ্যে পার্থক্য?
ইসরায়েলের সামরিক প্রযুক্তিতে ‘গসপেল’ এবং ‘ল্যাভেন্ডার’ দুটি ভিন্ন অস্ত্র, যা একে অপরের পরিপূরক। এই দুটির মধ্যে পার্থক্য বোঝা গুরুত্বপূর্ণ কারণ তাদের উদ্দেশ্য সম্পূর্ণ ভিন্ন। যদিও ‘গসপেল’ (হাবসোরা) এর প্রধান কাজ হল দৈহিক কাঠামো যেমন ভবন, অফিস, টানেল বা সন্দেহজনক বাড়িগুলিকে লক্ষ্য হিসাবে চিহ্নিত করা, ল্যাভেন্ডার (ল্যাভেন্ডার) সম্পূর্ণভাবে মানুষের উপর ফোকাস করে।
ল্যাভেন্ডার সিস্টেমের কাজগুলি একটি হরর মুভির মতো কিছু বলে মনে হচ্ছে। এটি গাজার প্রায় 2.3 মিলিয়ন বাসিন্দার ডেটা স্ক্যান করে এবং AI এর মাধ্যমে প্রতিটি ব্যক্তিকে 1 থেকে 100 এর মধ্যে একটি স্কোর দেয়। কোন চরমপন্থী সংগঠনের সাথে ব্যক্তির কার্যকলাপ কতটা মিল তার ভিত্তিতে এই স্কোর নির্ধারণ করা হয়। যার স্কোর বেশি তাকে সিস্টেম দ্বারা ‘সন্ত্রাসী’ হিসাবে শ্রেণীবদ্ধ করা হয়। সহজ কথায়, গসপেল সিদ্ধান্ত নেয় ‘কোথায়’ বোমা ফেলবে, যখন ল্যাভেন্ডার সিদ্ধান্ত নেয় ‘কাকে’ টার্গেট করবে।
AI সিস্টেম নিয়ে বিতর্ক কেন?
যখন একটি মেশিন একটি লক্ষ্য নির্বাচন করে, এটি শুধুমাত্র ডেটা দেখে, আবেগ নয়। আর এটাই এই ব্যবস্থাকে বিতর্কিত করে তোলে। সমালোচকরা বলেছেন:
- ত্রুটির মার্জিন: যদি কোনো নিরপরাধ নাগরিকের ফোন ভুলবশত কোনো সন্দেহভাজন ব্যক্তির সংস্পর্শে আসে, তাহলে AI তাকেও টার্গেট তালিকায় রাখতে পারে।
- সমান্তরাল ক্ষতি: যন্ত্রটি বলে যে বিল্ডিংটিতে অস্ত্র রয়েছে, তবে এটি দেখতে পারে না যে ওই ভবনের পাশে শিশুরা খেলছে নাকি হাসপাতাল আছে।
- জবাবদিহিতার অভাব: AI এর ভুলের কারণে একজন নিরপরাধ মানুষ মারা গেলে দায় কার হবে? যে প্রকৌশলী সফটওয়্যার তৈরি করেছেন নাকি সেই অফিসার যিনি কেবল কম্পিউটারে বোতাম টিপেছেন?
ইসরায়েলি সামরিক দাবি বনাম সমালোচনা
বিশেষজ্ঞরা বলছেন যে আমরা এমন এক যুগে পৌঁছেছি যেখানে যুদ্ধের সিদ্ধান্ত নির্ভর করে OODA লুপের উপর (অবজারভ, ওরিয়েন্ট, ডিসাইড, অ্যাক্ট – অর্থাৎ পর্যবেক্ষণ, বোঝা, সিদ্ধান্ত এবং আক্রমণ)। AI এই চক্রকে এতটাই গতি দেয় যে মানুষ চিন্তা করার সুযোগও পায় না।
ইসরায়েলি সামরিক বাহিনী দাবি করে যে চূড়ান্ত সিদ্ধান্ত সর্বদা একজন মানুষের দ্বারা নেওয়া হয়, কিন্তু সমালোচকরা যুক্তি দেন যে যখন সিস্টেমটি প্রতি মিনিটে ডজন ডজন লক্ষ্য সরবরাহ করছে, তখন একজন মানুষের পক্ষে প্রতিটি লক্ষ্য বিশদভাবে পরীক্ষা করা অসম্ভব। সে শুধু মেশিনে বিশ্বাস করে এবং ‘ওকে’ বোতাম টিপতে থাকে।
ইসরায়েলের ‘গসপেল’ পদ্ধতি প্রযুক্তিতে একটি দুর্দান্ত সাফল্য, তবে এটি মানবতার জন্য একটি বড় সতর্কতাও বটে। এটি যুদ্ধকে ‘দক্ষ’ করে তুলছে কিন্তু একে ‘নিষ্ঠুর’ করার ঝুঁকিও বাড়িয়ে দিচ্ছে।