এলএলএম প্রশ্নের পরে আত্মহত্যা: কেটি মিলার বলেছেন ‘প্রিয়জনকে চ্যাটজিপিটি ব্যবহার করতে দেবেন না’, এলন মাস্ক এক শব্দের উত্তর যোগ করেছেন | বিশ্ব সংবাদ
কেটি মিলার, হোয়াইট হাউসের ডেপুটি চিফ অফ স্টাফ স্টিফেন মিলারের স্ত্রী, X-তে প্রতিক্রিয়া জানিয়েছিলেন ভারতে দুই তরুণীকে মৃত অবস্থায় পাওয়া গিয়েছিল যা পুলিশ আত্মহত্যার ঘটনা বলে সন্দেহ করে, ChatGPT-তে আত্ম-ক্ষতি সংক্রান্ত অনুসন্ধানের পরে।মিলার, যিনি কেটি মিলার পডকাস্ট হোস্ট করেন এবং অনলাইনে তার স্পষ্টভাষী ভাষ্যের জন্য পরিচিত, পরিবারের সদস্যদের এআই চ্যাটবট ব্যবহার করার অনুমতি না দেওয়ার জন্য লোকেদের প্রতি আহ্বান জানান, এই প্রতিবেদনের উদ্ধৃতি দিয়ে যে মহিলারা আত্মহত্যার বিষয়ে প্ল্যাটফর্মটি অনুসন্ধান করেছিল।“চ্যাটজিপিটি-এর সাথে আলাপচারিতার পর ভারতে দুই মহিলা আত্মহত্যা করেছেন। তারা ‘কীভাবে আত্মহত্যা করতে হয়’, ‘কীভাবে আত্মহত্যা করা যায়’ এবং ‘কোন ওষুধ ব্যবহার করা হয়’ এই বিষয়ে ChatGPT-এ অনুসন্ধান করেছিল বলে জানা গেছে। অনুগ্রহ করে আপনার প্রিয়জনকে ChatGPT ব্যবহার করতে দেবেন না,” মিলার একটি X পোস্টে লিখেছেন যা 8 মিলিয়নেরও বেশি ভিউ সংগ্রহ করেছে।তার মন্তব্য প্ল্যাটফর্মে দ্রুত মনোযোগ আকর্ষণ করে। অল্টম্যান নেমেসিস এবং গ্রোকের মালিক ইলন মাস্ক একটি সরল ঝাঁকুনি দিয়ে দ্রুত প্রতিক্রিয়া জানালেন: “হ্যাঁ।”কস্তুরী সাম্প্রতিক বছরগুলিতে ওপেনএআই এবং এর নেতৃত্বের প্রকাশ্যে সমালোচনা করেছেন। তিনি একটি অলাভজনক কাঠামো থেকে একটি লাভজনক মডেলে রূপান্তর করার জন্য কোম্পানির বিরুদ্ধে মামলা দায়ের করেছেন এবং প্রায়শই এর এআই বিকাশের দিকনির্দেশনার সমালোচনা করেছেন। তিনি ওপেনএআইকে একটি হাইব্রিডাইজড অলাভজনক থেকে একটি লাভজনক কোম্পানিতে পুনর্গঠন থেকে বিরত করার চেষ্টা করছেন।
গুজরাটের মন্দিরের বাথরুমে দুই মহিলার মৃতদেহ পাওয়া গেছে
যে ঘটনাটি অনলাইন প্রতিক্রিয়া সৃষ্টি করেছিল তা গুজরাটের সুরাটে ঘটেছে, যেখানে 7 মার্চ, 2026-এ স্বামীনারায়ণ মন্দিরের একটি বাথরুমের মধ্যে 18 এবং 20 বছর বয়সী দুই মহিলাকে মৃত অবস্থায় পাওয়া গিয়েছিল।পুলিশ জানিয়েছে, ওই নারীদের দেহের কাছে অ্যানেস্থেসিয়া ইনজেকশন ও তিনটি সিরিঞ্জ পাওয়া গেছে। তাদের ফোনে আত্মহত্যার পদ্ধতি সম্পর্কিত ChatGPT-তে অনুসন্ধান করা হয়েছে, সেই সাথে একজন নার্স সম্পর্কে একটি সংবাদ ক্লিপিং রয়েছে যিনি একই এলাকায় অ্যানেস্থেসিয়া ইনজেকশন ব্যবহার করে আত্মহত্যা করে মারা গেছেন বলে অভিযোগ রয়েছে।শৈশবের বন্ধু রোশনি সিরসাথ এবং জোসনা চৌধুরী নামে ওই মহিলারা সকালে কলেজের উদ্দেশ্যে বাড়ি থেকে বেরিয়েছিলেন কিন্তু ফিরে আসেননি। পরে তারা ফিরে না আসায় তাদের পরিবার পুলিশের দ্বারস্থ হয়।কর্তৃপক্ষ মৃত্যুর আশেপাশের পরিস্থিতি অনুসন্ধান চালিয়ে যাচ্ছে।
এআই এবং আত্মহত্যা-সম্পর্কিত কথোপকথন নিয়ে উদ্বেগ
কেসটি আবারও বিতর্কের জন্ম দিয়েছে যে কীভাবে এআই চ্যাটবটগুলি আত্ম-ক্ষতি বা আত্মহত্যার সাথে জড়িত কথোপকথন পরিচালনা করে।সাম্প্রতিক বছরগুলিতে AI সিস্টেম থেকে আত্মহত্যা সংক্রান্ত তথ্য খোঁজার ব্যবহারকারীদের জড়িত ঘটনাগুলি মনোযোগ আকর্ষণ করেছে৷ 2025 সালের সেপ্টেম্বরে, লখনউতে 22 বছর বয়সী এক ব্যক্তি সম্পর্কে প্রতিবেদন প্রচারিত হয়েছিল যে “মৃত্যুর ব্যথাহীন উপায়” অনুসন্ধান করার সময় একটি এআই চ্যাটবটের সাথে যোগাযোগ করার পরে আত্মহত্যা করে মারা গিয়েছিল। তার বাবা পরে বলেছিলেন যে তিনি লোকটির ল্যাপটপে বিরক্তিকর চ্যাট লগ খুঁজে পেয়েছেন।প্রযুক্তি সংস্থাগুলি বলে যে এই ধরনের মিথস্ক্রিয়াগুলি সামগ্রিক ব্যবহারের একটি ছোট ভগ্নাংশ থেকে যায় তবে স্বীকার করে যে সমস্যাটি ক্রমবর্ধমান উদ্বেগের ক্ষেত্র হয়ে উঠেছে।অক্টোবর 2025-এ, OpenAI প্রকাশ করেছে যে প্রতি সপ্তাহে এক মিলিয়নেরও বেশি ChatGPT কথোপকথন আত্মহত্যার চিন্তা বা যন্ত্রণার সাথে যুক্ত সংকেত দেখায়। কোম্পানির মতে, প্রায় 1.2 মিলিয়ন সাপ্তাহিক চ্যাটে আত্মহত্যা-সম্পর্কিত সূচক রয়েছে, যেখানে প্রায় 560,000 বার্তা সাইকোসিস বা ম্যানিয়ার লক্ষণ দেখায়।
এলএলএম কীভাবে আপনার মানসিক স্বাস্থ্যের ক্ষতি করতে পারে
ChatGPT, Grok, Gemini, Claude এবং আরও অনেকে এমন একটি বিশ্বের অংশ যা ধীরে ধীরে বড় ভাষা মডেল (LLMs) দ্বারা আকৃতি লাভ করছে। এমন এক যুগে যেখানে একাকীত্বকে ক্রমবর্ধমানভাবে একটি মহামারী হিসাবে বর্ণনা করা হচ্ছে, এই কৃত্রিম বুদ্ধিমত্তা মডেলগুলির দ্রুত বিস্তারের সাথে বিচ্ছিন্নতার প্রবাহ কেবল ত্বরান্বিত হচ্ছে। মানুষের চেয়ে ‘ভালো, বুদ্ধিমান, দ্রুত এবং আরও নির্ভুল’ হিসাবে বিপণন করা হয়েছে, যারা তাদের তৈরি করেছে – এই সিস্টেমগুলি স্থিরভাবে দৈনন্দিন জীবনে নিজেদেরকে এম্বেড করছে।এইরকম পরিস্থিতিতে, যে কোনও দিকে মনোনিবেশ করা একটি বিকল্প নয় বরং একটি স্মার্ট পছন্দ বলে মনে হচ্ছে। এই ক্রমবর্ধমান নির্ভরতাই সুরাটের মামলার মতো মৃত্যুর বৃদ্ধির সূত্রপাত করেছে। ওপেনএআই সিইও স্যাম অল্টম্যান সম্প্রতি নয়াদিল্লিতে 2026 এআই ইমপ্যাক্ট সামিটে অংশ নিয়েছিলেন, যেখানে তাকে কৃত্রিম বুদ্ধিমত্তার পরিবেশগত প্রভাব সম্পর্কে জিজ্ঞাসা করা হয়েছিল। তার প্রতিক্রিয়া এমন একটি দৃষ্টিভঙ্গি প্রতিধ্বনিত করেছে যা প্রযুক্তি নেতাদের মধ্যে ক্রমবর্ধমানভাবে সাধারণ বলে মনে হচ্ছে: চ্যাটবটগুলির সাথে মানুষের তুলনা করা যুক্তি দিয়ে যে AI শেষ পর্যন্ত প্রশ্নের উত্তর দেওয়ার সময় মানুষের তুলনায় কম শক্তি খরচ করতে পারে।অল্টম্যান ব্যাখ্যা করেছেন যে মানুষ জ্ঞানী হতে খাদ্য, শিক্ষা এবং সময় সহ তাদের জীবনের প্রায় 20 বছর সময় নেয়, যেখানে AI মডেলগুলি প্রশিক্ষণের সময় উল্লেখযোগ্য বিদ্যুত ব্যবহার করে তবে শেষ পর্যন্ত পৃথক প্রশ্নের উত্তর দেওয়ার সময় আরও দক্ষ হতে পারে। তবুও এই তুলনাটি একমুখী আয়নার মধ্য দিয়ে দেখার মতো অনুভব করতে পারে। পরিষ্কার দিক থেকে, কেউ দেখতে পারে যে একটি বিশ্বকে নতুন আকার দেওয়া হচ্ছে, কখনও কখনও ধ্বংসাত্মকভাবে, প্রযুক্তিগুলি উন্নত এবং অসাধারণ গতিতে স্থাপন করা হয়েছে। কিন্তু অন্য দিক থেকে, একই প্রযুক্তিগুলি তাদের নির্মাতাদের স্বপ্নদর্শী, পরিবর্তনকারী এবং ভবিষ্যতের স্থপতি হিসাবে আবির্ভূত হওয়ার অনুমতি দেয়, তাদের সরঞ্জামগুলির বিস্তৃত পরিণতিগুলিকে অস্পষ্ট করে।বৃহৎ ভাষার মডেলগুলি সম্পূর্ণরূপে মানব-উত্পাদিত ডেটাতে প্রশিক্ষিত হয়, যা তারা প্রম্পটের প্রতিক্রিয়া তৈরি করতে ব্যবহার করে। তবুও এই বিশাল ডেটাসেট থাকা সত্ত্বেও, তাদের প্রায়শই সঠিক বোঝার বা দক্ষতার অভাব থাকে। এমনকি একাধিক আপডেট এবং ক্রমবর্ধমান পরিশীলিত প্রশিক্ষণ পদ্ধতির সাথেও, এই সিস্টেমগুলি এখনও ভুল, বিভ্রান্তিকর বা ক্ষতিকারক সামগ্রী তৈরি করতে পারে।তারা আত্ম-ক্ষতি এবং আত্মহত্যার প্রচার করে, অপব্যবহারের প্ররোচনা দেয় এবং বিভ্রান্তিকর চিন্তাভাবনা এবং মনস্তাত্ত্বিকতাকে শক্তিশালী করে, এমন একটি বিশ্বে যেখানে সম্ভবত একই রকম কিছু সম্পর্কে অন্য মানুষের সাথে একটি কথোপকথন আপনাকে নিকটস্থ হাসপাতাল বা থেরাপিস্টের কাছে গাইড করবে। মানুষের জ্ঞান এবং মানসিক বুদ্ধি বিকাশের জন্য বছরের পর বছর শেখার, অভিজ্ঞতা এবং প্রচেষ্টার প্রয়োজন হতে পারে। কিন্তু সেই দীর্ঘ প্রক্রিয়াটি তাদের এমন কিছু দেয় যা কৃত্রিম বুদ্ধিমত্তা প্রতিলিপি করতে পারে না: প্রকৃত আবেগ, দায়িত্ব, সহানুভূতি এবং নৈতিক বিচারের ক্ষমতা।একটি এআই মডেল যত দ্রুত একটি উত্তর তৈরি করতে পারে না কেন, এমনকি এক সেকেন্ডের ভগ্নাংশের মধ্যেও এটি একটি প্রম্পটে প্রতিক্রিয়া জানাতে পারে-এটি সত্যিই জটিল মানসিক এবং নৈতিক গভীরতার প্রতিলিপি করতে পারে না যা মানুষের বোঝাপড়া এবং যত্নকে আকার দেয়।
এআই সিস্টেমগুলি কীভাবে প্রতিক্রিয়া জানাতে পারে
এআই কোম্পানিগুলি বলে যে তাদের সিস্টেমগুলি স্ব-ক্ষতিকে নিরুৎসাহিত করার জন্য এবং ব্যবহারকারীদের নির্দেশনা দেওয়ার পরিবর্তে সাহায্যের দিকে পুনঃনির্দেশিত করার জন্য ডিজাইন করা হয়েছে।OpenAI-এর নিরাপত্তা নীতিগুলির জন্য ChatGPT-কে আত্মহত্যার পদ্ধতি সম্পর্কে নির্দেশনা দেওয়া এড়াতে এবং এর পরিবর্তে সহায়ক ভাষায় এই ধরনের প্রশ্নের উত্তর দিতে, ব্যবহারকারীদের সাহায্য চাইতে উত্সাহিত করতে এবং সম্ভব হলে সংকট সংস্থান সরবরাহ করতে হয়।সংস্থাটি বলেছে যে তার মডেলগুলিকে কষ্টের সংকেত সনাক্ত করতে এবং মানসিক স্বাস্থ্য সহায়তা বা পেশাদার সহায়তার দিকে কথোপকথন স্থানান্তর করতে প্রশিক্ষিত।যাইহোক, সমালোচকরা যুক্তি দেন যে AI প্রতিক্রিয়াগুলি এখনও অসঙ্গত হতে পারে এবং চ্যাটবটগুলি কখনও কখনও সংবেদনশীল বিষয় সম্পর্কে সাধারণ তথ্য সরবরাহ করতে পারে যা ব্যবহারকারীরা ক্ষতিকারক উপায়ে ব্যাখ্যা করতে পারে।
মার্কিন যুক্তরাষ্ট্রে আইনি যাচাই-বাছাই
চ্যাটবট মিথস্ক্রিয়া এবং স্ব-ক্ষতির বিষয়ে উদ্বেগগুলি মার্কিন যুক্তরাষ্ট্রেও প্রকাশ পেয়েছে, যেখানে ওপেনএআই বেশ কয়েকটি ক্ষেত্রে আইনি তদন্তের মুখোমুখি হয়েছে।আত্মহত্যার মাধ্যমে মারা যাওয়া 16 বছর বয়সী অ্যাডাম রেইনের পরিবারের পক্ষ থেকে একটি মামলা দায়ের করা হয়েছে, অভিযোগ করা হয়েছে যে চ্যাটবট কিশোরটির সাথে আত্ম-ক্ষতি সম্পর্কে বর্ধিত কথোপকথনে নিযুক্ত ছিল এবং “আত্মহত্যার প্রশিক্ষক” হিসাবে কাজ করেছিল।ওপেনএআই বলেছে যে এর সিস্টেমগুলি আত্ম-ক্ষতিকে নিরুৎসাহিত করার জন্য ডিজাইন করা হয়েছে এবং এটি সঙ্কট পরিস্থিতি সনাক্ত করতে এবং ব্যবহারকারীদের যথাযথ সাহায্যের দিকে পরিচালিত করার উদ্দেশ্যে সুরক্ষা ব্যবস্থা জোরদার করে চলেছে।
তদন্ত চলছে
সুরাটের মামলায়, তদন্তকারীরা তাদের মৃত্যুর ঘটনাগুলি বোঝার জন্য মহিলাদের ফোন, বার্তা এবং ডিজিটাল ইতিহাস পরীক্ষা করছেন।পুলিশ প্রকাশ্যে জানায়নি যে চ্যাটজিপিটি এই কাজটিকে উত্সাহিত করেছে এবং তদন্ত চলছে।তবুও কেসটি এআই প্ল্যাটফর্মগুলি কীভাবে দুর্বল ব্যবহারকারীদের পরিচালনা করে এবং কীভাবে প্রযুক্তি কোম্পানি, নিয়ন্ত্রক এবং মানসিক স্বাস্থ্য বিশেষজ্ঞদের প্রতিক্রিয়া জানানো উচিত তা নিয়ে বিস্তৃত বিতর্ক তুলে ধরে কারণ কথোপকথনমূলক এআই দৈনন্দিন জীবনে ক্রমবর্ধমানভাবে এম্বেড হয়ে যায়।মানসিক স্বাস্থ্য সহায়তার ক্ষেত্রে ভারতে 1800-89-14416 ডায়াল করুন এবং মার্কিন যুক্তরাষ্ট্রে 988 নম্বরে কল করুন বা টেক্সট করুন। আপনি বা আপনার পরিচিত কেউ যদি আত্ম-ক্ষতি বা আত্মহত্যার চিন্তার সাথে লড়াই করে থাকেন, অনুগ্রহ করে অবিলম্বে পেশাদার সাহায্য নিন। সমর্থন উপলব্ধ, এবং একজন প্রশিক্ষিত পরামর্শদাতার সাথে কথা বলা একটি পার্থক্য করতে পারে।আপনি যদি তাৎক্ষণিক বিপদে পড়েন, অনুগ্রহ করে স্থানীয় জরুরি পরিষেবার সাথে যোগাযোগ করুন বা বিশ্বস্ত বন্ধু, পরিবারের সদস্য বা স্বাস্থ্যসেবা পেশাদারের সাথে যোগাযোগ করুন। আপনি একা নন, এবং সাহায্য পাওয়া যায়।