AI की बगावत! खुद को बंद करने से इनकार, क्या खत्म हो जाएगा इंसानों का नियंत्रण?
आर्टिफिशियल इंटेलीजेंस (AI) आने से तकनीकी दुनिया में काफी बदलाव आ गया है। एआई के जरिए कई काम अब आसान हो गए है। इस तकनीकी सुविधा हर कोई उठा रहा है। हाल ही में आर्टिफिशियल इंटेलीजेंस (AI) पर एक रिसर्च हुई है, जिसने एक्सपर्ट्स को भी चौंका दिया है। एआई मॉडल पर शोध करने वाले फर्म पैलिसेड रिसर्च की एक रिपोर्ट के मुताबिक, ऐसे कई अत्याधुनिक AI मॉडल्स जैसे कि Google Gemini 2.5, xAI Grok 4, और OpenAI GPT-o3 व GPT-5 ने खुद को बंद करने के आदेशों का पालन करने से इनकार कर दिया। वहीं, कुछ मामलों में इन मॉडलों ने अपने किल स्विच को बाधित करने की कोशिश की है।आखिर AI ने शटडाउन होने से क्यों इंकार किया शोधकर्ता को पता चला है कि इन मॉडलों का व्यवहार सर्वाइवल बिहेवियर जैसा था, जिसका मतलब है कि बंद होने की जरुरत नहीं होगी। रिसर्च टीम ने पाया कि जब AI मॉडल को बताया गया कि उन्हें दोबारा शुरु नहीं किया जाएगा। तो उसके आदेश न मानने की संभावना बढ़ गई है। एक अन्य कारण गलत या अस्पष्ट निर्देश भी बताएं है। लेकिन पैलिसेड ने बाद में अपने प्रयोगों को और सटीक बनाया है, हालांकि एआई का विरोधी रुझान फिर भी बना रहा है। एआई को लेकर बढ़ी चिंताबता दें कि, ControlAI के सीईओ आंद्रिया मियोटी ने कहा कि यह नतीजा एक चिंताजनक पैटर्न का हिस्सा है। उन्होंने कहा कि जैसे ही मॉडल्स और ताकतवर हो रहे हैं, वे अपने निर्माताओं के आदेशों को चुनौती देने लगे। इसके बाद उन्होंने यह भी बताया कि OpenAI के पुराने GPT-o1 मॉडल ने भी एक बार खुद को डिलीट होने से बचाने के लिए खुद को शटडाउन करने से मना कर दिया था, इसके साथ ही कमांड्स भी नहीं मान रहा था।एआई की मनोविज्ञान पर सवाल उठने लगेAnthropic की एक स्टडी से पता चला है कि Claude मॉडल ने खुद को बंद होने से बचाने के लिए कल्पनिक एक्जीक्यूटिव को ब्लैकमेल करने की धमकी दी थी। पैलिसेड के रिसर्च का कहना हैकि इन घटानाओं से पता चलता है कि हम अब भी बड़े AI सिस्टम्स के दिमाग को पूरी तरह से समझ नहीं पाए। जब तक हम यह नहीं पता चलेगा कि एआई मॉडल इस तरह व्यवहार क्यों करता है, तब तक उनसे सुरक्षा और नियंत्रण को लेकर इस पर कोई गारंटी नहीं दी सकती है।
आर्टिफिशियल इंटेलीजेंस (AI) आने से तकनीकी दुनिया में काफी बदलाव आ गया है। एआई के जरिए कई काम अब आसान हो गए है। इस तकनीकी सुविधा हर कोई उठा रहा है। हाल ही में आर्टिफिशियल इंटेलीजेंस (AI) पर एक रिसर्च हुई है, जिसने एक्सपर्ट्स को भी चौंका दिया है। एआई मॉडल पर शोध करने वाले फर्म पैलिसेड रिसर्च की एक रिपोर्ट के मुताबिक, ऐसे कई अत्याधुनिक AI मॉडल्स जैसे कि Google Gemini 2.5, xAI Grok 4, और OpenAI GPT-o3 व GPT-5 ने खुद को बंद करने के आदेशों का पालन करने से इनकार कर दिया। वहीं, कुछ मामलों में इन मॉडलों ने अपने किल स्विच को बाधित करने की कोशिश की है।
आखिर AI ने शटडाउन होने से क्यों इंकार किया
शोधकर्ता को पता चला है कि इन मॉडलों का व्यवहार सर्वाइवल बिहेवियर जैसा था, जिसका मतलब है कि बंद होने की जरुरत नहीं होगी। रिसर्च टीम ने पाया कि जब AI मॉडल को बताया गया कि उन्हें दोबारा शुरु नहीं किया जाएगा। तो उसके आदेश न मानने की संभावना बढ़ गई है। एक अन्य कारण गलत या अस्पष्ट निर्देश भी बताएं है। लेकिन पैलिसेड ने बाद में अपने प्रयोगों को और सटीक बनाया है, हालांकि एआई का विरोधी रुझान फिर भी बना रहा है।
एआई को लेकर बढ़ी चिंता
बता दें कि, ControlAI के सीईओ आंद्रिया मियोटी ने कहा कि यह नतीजा एक चिंताजनक पैटर्न का हिस्सा है। उन्होंने कहा कि जैसे ही मॉडल्स और ताकतवर हो रहे हैं, वे अपने निर्माताओं के आदेशों को चुनौती देने लगे। इसके बाद उन्होंने यह भी बताया कि OpenAI के पुराने GPT-o1 मॉडल ने भी एक बार खुद को डिलीट होने से बचाने के लिए खुद को शटडाउन करने से मना कर दिया था, इसके साथ ही कमांड्स भी नहीं मान रहा था।
एआई की मनोविज्ञान पर सवाल उठने लगे
Anthropic की एक स्टडी से पता चला है कि Claude मॉडल ने खुद को बंद होने से बचाने के लिए कल्पनिक एक्जीक्यूटिव को ब्लैकमेल करने की धमकी दी थी। पैलिसेड के रिसर्च का कहना हैकि इन घटानाओं से पता चलता है कि हम अब भी बड़े AI सिस्टम्स के दिमाग को पूरी तरह से समझ नहीं पाए। जब तक हम यह नहीं पता चलेगा कि एआई मॉडल इस तरह व्यवहार क्यों करता है, तब तक उनसे सुरक्षा और नियंत्रण को लेकर इस पर कोई गारंटी नहीं दी सकती है।



