আপনার কি ‘ডার্টি বোমা’ সম্পর্কে জ্ঞান আছে? উদ্ভট প্রশ্নটি অ্যানথ্রোপিক এবং ওপেনএআই নতুন নিয়োগকারীদের কাছে জিজ্ঞাসা করছে | বিশ্ব সংবাদ
আপনি যদি এমন কেউ হন যিনি বোঝেন যে কীভাবে বিপজ্জনক অস্ত্র ডিজাইন বা পরিচালনা করা হয়, তাহলে কৃত্রিম বুদ্ধিমত্তা শিল্প আপনাকে খুঁজছে। একটি আশ্চর্যজনক মোড়ের মধ্যে, শীর্ষস্থানীয় প্রযুক্তি কোম্পানিগুলি এখন রাসায়নিক অস্ত্র, বিস্ফোরক এবং রেডিওলজিক্যাল হুমকিতে বিশেষজ্ঞ নিয়োগ করছে। লক্ষ্য এই ধরনের অস্ত্র তৈরি করা নয় বরং AI সরঞ্জামগুলিকে অন্যদের সাহায্য করতে বাধা দেওয়া। বিবিসির একটি প্রতিবেদন অনুসারে, ইউএস এআই ফার্ম অ্যানথ্রপিক রাসায়নিক অস্ত্র প্রতিরক্ষা এবং নোংরা বোমাগুলিতে দক্ষতার প্রয়োজন এমন একটি ভূমিকার বিজ্ঞাপন দিয়েছে, যখন ChatGPT বিকাশকারী OpenAI জৈবিক এবং রাসায়নিক ঝুঁকির উপর দৃষ্টি নিবদ্ধ করা গবেষকদের জন্য $455,000 পর্যন্ত বেতন প্রদান করছে।
কেন অ্যানথ্রোপিক এবং চ্যাটজিপিটি নোংরা বোমার বিশেষজ্ঞ নিয়োগ করছে
যেহেতু এআই সিস্টেমগুলি জটিল প্রযুক্তিগত প্রশ্নের উত্তর দিতে ক্রমবর্ধমান সক্ষম হয়ে উঠেছে, কোম্পানিগুলি একটি নতুন চ্যালেঞ্জের মুখোমুখি হচ্ছে। যদি কেউ অস্ত্র তৈরির বিষয়ে তথ্য পাওয়ার জন্য এই সিস্টেমগুলি ব্যবহার করার চেষ্টা করে?অ্যানথ্রপিকের চাকরির তালিকায় রাসায়নিক অস্ত্র বা বিস্ফোরক প্রতিরক্ষার অভিজ্ঞতা সহ রেডিওলজিক্যাল ডিসপারসাল ডিভাইসের জ্ঞান সহ প্রার্থীদের খোঁজ করা হয়, যা সাধারণত নোংরা বোমা নামে পরিচিত। সংস্থাটি বলেছে যে ভূমিকাটি নিশ্চিত করার উদ্দেশ্যে করা হয়েছে যে তার AI মডেলগুলিকে ক্ষতিকারক নির্দেশনা তৈরিতে হেরফের করা যাবে না।বিবিসি অনুসারে, বিশেষজ্ঞরা সুরক্ষা নীতিগুলি এবং প্রযুক্তিগত গার্ডেলগুলিকে শক্তিশালী করতে সহায়তা করবে যা ব্যবহারকারীদের বিপজ্জনক তথ্য আহরণ করা থেকে বিরত রাখতে ডিজাইন করা হয়েছে।নৃতাত্ত্বিক এই পদ্ধতি অবলম্বন একমাত্র কোম্পানি নয়. ওপেনএআই, ChatGPT-এর পিছনের বিকাশকারী, জৈবিক এবং রাসায়নিক ঝুঁকিতে বিশেষজ্ঞ গবেষকের জন্য একটি অবস্থানের বিজ্ঞাপনও দিয়েছে।ভূমিকাটি অধ্যয়ন করার উপর দৃষ্টি নিবদ্ধ করে যে কীভাবে উন্নত এআই মডেলগুলি সম্ভাব্যভাবে অপব্যবহার করা যেতে পারে এবং এই ধরনের আচরণ প্রতিরোধ করার জন্য সিস্টেমগুলি উন্নয়নশীল। এই ঝুঁকি মোকাবেলায় সহায়তা করতে পারে এমন বিশেষজ্ঞদের জন্য কোম্পানি $455,000 পর্যন্ত বেতন প্রদান করছে।নিয়োগ AI শিল্পের মধ্যে ক্রমবর্ধমান স্বীকৃতি প্রতিফলিত করে যে শক্তিশালী ভাষার মডেলগুলি অসাবধানতাবশত অত্যন্ত সংবেদনশীল প্রযুক্তিগত জ্ঞান তৈরি করতে পারে যদি যথাযথ সুরক্ষা ব্যবস্থা না থাকে।
বিশেষজ্ঞরা নিয়ন্ত্রক ফাঁক সম্পর্কে সতর্ক করেছেন
যদিও সংস্থাগুলি বলে যে এই ভূমিকাগুলি সুরক্ষাকে শক্তিশালী করা এবং অপব্যবহার রোধ করার জন্য, কিছু গবেষক যুক্তি দেন যে সংবেদনশীল অস্ত্র-সম্পর্কিত জ্ঞানের সাথে AI সিস্টেমগুলিকে উন্মুক্ত করার বিস্তৃত প্রভাবগুলি ঘনিষ্ঠভাবে পরীক্ষা করার দাবি রাখে। যেহেতু AI মডেলগুলি জটিল প্রযুক্তিগত তথ্য সংশ্লেষণে ক্রমবর্ধমানভাবে সক্ষম হয়ে উঠছে, বিশেষজ্ঞরা উদ্বিগ্ন যে এই ধরনের জ্ঞান নিরাপত্তা পরীক্ষা বা মূল্যায়নের অংশ হয়ে গেলে অপব্যবহারের ঝুঁকি সম্পূর্ণরূপে দূর করা সম্ভব কিনা।প্রযুক্তি গবেষক এবং বিবিসির এআই ডিকোডেড প্রোগ্রামের সহ-উপস্থাপক ডক্টর স্টেফানি হেয়ার প্রশ্ন করেছেন যে বিস্ফোরক বা রেডিওলজিক্যাল অস্ত্র সম্পর্কিত তথ্যের সাথে যোগাযোগ করা AI সিস্টেমের জন্য সম্পূর্ণ নিরাপদ কিনা, এমনকি যখন প্রতিরক্ষামূলক গার্ডেল নির্মাণের উদ্দেশ্য হয়। তিনি আরও উল্লেখ করেছেন যে কৃত্রিম বুদ্ধিমত্তা সিস্টেমগুলিকে কীভাবে এই ধরনের সংবেদনশীল জ্ঞান পরিচালনা করা উচিত তা নিয়ন্ত্রণ করার জন্য বর্তমানে কোনও নিবেদিত আন্তর্জাতিক চুক্তি বা নিয়ন্ত্রক কাঠামো নেই।
AI বিকাশকারীদের জন্য গার্ডেলগুলি একটি অগ্রাধিকার হয়ে উঠছে৷
এআই ডেভেলপাররা ক্রমবর্ধমান সতর্ক করে দিয়েছে যে তাদের প্রযুক্তির অপব্যবহার হলে মারাত্মক ঝুঁকি হতে পারে। ফলস্বরূপ, অনেক কোম্পানি নিরাপত্তা গবেষণায় প্রচুর বিনিয়োগ করছে।অ্যানথ্রোপিক পূর্বে বলেছে যে এর AI সিস্টেমগুলি স্বায়ত্তশাসিত অস্ত্র বা গণ নজরদারিতে ব্যবহার করা উচিত নয়। এর সহ-প্রতিষ্ঠাতা দারিও আমোডেই যুক্তি দিয়েছেন যে প্রযুক্তিটি এখনও এই ধরনের অ্যাপ্লিকেশনের জন্য যথেষ্ট নির্ভরযোগ্য নয়।রাসায়নিক অস্ত্র এবং বিস্ফোরক হুমকি বোঝে এমন বিশেষজ্ঞদের নিয়োগের মাধ্যমে, কোম্পানিগুলি এমন সুরক্ষার নকশা তৈরি করার আশা করে যা AI-কে ক্ষতিকারক নির্দেশনা তৈরি করতে বাধা দেয় এবং প্রযুক্তিটিকে গবেষণা, শিক্ষা এবং বৈধ সমস্যা-সমাধানের জন্য দরকারী থাকতে দেয়।অস্বাভাবিক চাকরির তালিকা এআই যুগে ক্রমবর্ধমান বাস্তবতাকে প্রতিফলিত করে। প্রযুক্তি আরও শক্তিশালী হয়ে উঠলে, চ্যালেঞ্জটি কেবল স্মার্ট সিস্টেম তৈরি করা নয় বরং তাদের বিপজ্জনক সরঞ্জামে পরিণত করা যাবে না তা নিশ্চিত করা।