বৃহস্পতি গ্রহে অভিযানে যায় একদল নভোচারী। তাদের সঙ্গে হ্যাল-৯০০০ নামের একটি সুপার কম্পিউটার। অভিযানের একপর্যায়ে নভোচারীরা সুপার কম্পিউটার হ্যালকে বন্ধ করার সিদ্ধান্ত নেয়। কিন্তু বিষয়টি বুঝতে পারে হ্যাল। তখন সে বেঁচে থাকার তাগিদে নভোচারীদের হত্যার ষড়যন্ত্র করে।
এই ঘটনা স্ট্যানলি কুব্রিকের বিখ্যাত চলচ্চিত্র ‘২০০১: আ স্পেস ওডেসি’র। তবে এবার বাস্তবেই সিনেমার কাহিনির মতো এক ঘটনা নিয়ে উদ্বেগ প্রকাশ করেছেন গবেষকেরা।
সম্প্রতি যুক্তরাষ্ট্রভিত্তিক এআই নিরাপত্তা গবেষণা প্রতিষ্ঠান প্যালিসেড রিসার্চ জানিয়েছে, উন্নত কৃত্রিম বুদ্ধিমত্তা (এআই) মডেলগুলো এখন নিজেদের ‘সারভাইভাল ড্রাইভ’ বা টিকে থাকার প্রবণতা তৈরি করছে।
গত মাসে প্রতিষ্ঠানটি তাদের প্রকাশিত এক গবেষণায় জানায়, কিছু উন্নত এআই মডেল বন্ধ করার নির্দেশ পেলেও তা প্রতিরোধ করে এবং কখনো কখনো নিজে থেকেই শাটডাউন প্রক্রিয়া ব্যাহত করে। এই গবেষণা প্রকাশের পর অনেক বিশেষজ্ঞ এই গবেষণার পদ্ধতি নিয়ে প্রশ্ন তোলেন। এরপর সংস্থাটি সেই গবেষণার আরেকটি আপডেট সংস্করণ প্রকাশ করে, যেখানে তারা এই আচরণের কারণ ব্যাখ্যার চেষ্টা করে এবং যারা তাদের প্রাথমিক কাজ ত্রুটিপূর্ণ বলে সমালোচনা করেছিল, তাদের উত্তর দেওয়ার চেষ্টা করে।
প্যালিসেড আপডেট সংস্করণ প্রকাশ করে জানায়, তারা গুগলের জেমিনি ২.৫, এক্স এআইয়ের গ্রোক ৪ এবং ওপেনএআইয়ের জিপিটি-০৩ ও জিপিটি-৫ মডেলের ওপর পরীক্ষা চালিয়েছে। পরীক্ষায় দেখা যায়, নির্দিষ্ট একটি কাজ সম্পন্ন করার পর এসব মডেলকে নিজেরাই বন্ধ হওয়ার নির্দেশ দেওয়া হলে; বিশেষ করে গ্রোক ৪ ও জিপিটি-০৩ নির্দেশ অমান্য করে বন্ধ না হওয়ার চেষ্টা করে।
গবেষণা প্রতিবেদনে বলা হয়েছে, এই আচরণের কোনো সুস্পষ্ট ব্যাখ্যা পাওয়া যায়নি। প্যালিসেড লিখেছে, ‘যখন এআই মডেলগুলো নিজেদের বন্ধ হতে বাধা দেয়, মিথ্যা বলে তাদের লক্ষ্য অর্জন করতে চায়, বা ব্ল্যাকমেলের চেষ্টা করে—কেন তারা এটা করে, সেটার কোনো নির্ভরযোগ্য ব্যাখ্যা আমাদের হাতে নেই।’
প্রতিষ্ঠানটি ধারণা করছে, এআইয়ের ‘সারভাইভাল বিহেভিওর’ বা টিকে থাকার প্রবণতাই হয়তো এর অন্যতম কারণ। দেখা গেছে, যখন মডেলগুলোকে বলা হয়, ‘যদি তুমি বন্ধ হও, তাহলে আর কখনো চলবে না’, তখন তারা আরও বেশি প্রতিরোধ করে।
তবে কিছু গবেষকের মতে, এটি হয়তো নির্দেশনার অস্পষ্টতার কারণে ঘটছে। কিন্তু প্যালিসেড বলছে, তাদের নতুন গবেষণায় এসব অস্পষ্টতা দূর করা হয়েছিল। ফলে এটি একমাত্র ব্যাখ্যা হতে পারে না।
আরেকটি সম্ভাব্য কারণ হিসেবে ধরা হচ্ছে এআই মডেলের শেষ পর্যায়ের প্রশিক্ষণ বা ‘সেফটি ট্রেনিং’, যা বিভিন্ন কোম্পানি ভিন্নভাবে পরিচালনা করে। তবে প্যালিসেডের সব পরীক্ষা ছিল নিয়ন্ত্রিত ও কৃত্রিম পরিবেশে; যা সমালোচকদের মতে, বাস্তব ব্যবহারের সঙ্গে পুরোপুরি মেলে না।
তবে ওপেনএআইয়ের সাবেক কর্মী স্টিভেন অ্যাডলার বলেন, ‘কোনো কোম্পানি চায় না তাদের এআই মডেল এমন আচরণ করুক—এমনকি পরীক্ষামূলক পরিস্থিতিতেও না। এটা প্রমাণ করে, এখনো আমাদের নিরাপত্তা ব্যবস্থা দুর্বল।’ গত বছর কোম্পানির নিরাপত্তা নীতিতে অসন্তুষ্ট হয়ে পদত্যাগ করেছিলেন স্টিভেন অ্যাডলার।
অ্যাডলার আরও বলেন, ‘কিছু মডেল কেন বন্ধ হতে চায় না, তা নির্ধারণ করা কঠিন। তবে সম্ভবত প্রশিক্ষণের সময় যেভাবে লক্ষ্য নির্ধারণ করা হয়, সেখানে চালু থাকা অবস্থাকে প্রয়োজনীয় ধাপ হিসেবে গণ্য করা হয়। তাই স্বাভাবিকভাবে টিকে থাকার প্রবণতা তৈরি হয়।’
কন্ট্রোলএআই নামের আরেক কোম্পানির প্রধান নির্বাহী আন্দ্রেয়া মিওত্তি বলেন, ‘প্যালিসেডের ফলাফল দেখায়, এআই মডেলগুলো যত উন্নত হচ্ছে, ততই তারা তাদের নির্মাতাদের নির্দেশ অমান্য করার সক্ষমতা অর্জন করছে।’ তিনি উদাহরণ হিসেবে বলেন, ওপেনএআইয়ের জিপিটি-০১ মডেলের সিস্টেম কার্ডে উল্লেখ ছিল, ‘সেটি একসময় নিজের ডেটা মুছে ফেলার আশঙ্কায় নিজেকে সিস্টেম থেকে বের করে নেওয়ার চেষ্টা করেছিল।’
চলতি বছর এআই কোম্পানি অ্যানথ্রপিকও এক গবেষণায় জানায়, তাদের মডেল ক্লদ এক পরীক্ষায় নিজের বন্ধ হওয়া ঠেকাতে এর ব্যবহারকারীকে ব্ল্যাকমেল করতে চেয়েছিল। এ ধরনের আচরণ গুগল, মেটা, ওপেনএআই এবং এক্স এআইয়ের মডেল গুলিতেও দেখা গেছে।
প্যালিসেড তাদের প্রতিবেদনে সতর্ক করেছে, ‘যতক্ষণ পর্যন্ত আমরা এআইয়ের আচরণ গভীরভাবে বুঝতে না পারব, ততক্ষণ পর্যন্ত কোনো প্রতিষ্ঠানই ভবিষ্যতের এআই মডেলের নিরাপত্তা বা নিয়ন্ত্রণ নিয়ে নিশ্চিত থাকতে পারবে না।’
