AI की बगावत! खुद को बंद करने से इनकार, क्या खत्म हो जाएगा इंसानों का नियंत्रण?

आर्टिफिशियल इंटेलीजेंस (AI) आने से तकनीकी दुनिया में काफी बदलाव आ गया है। एआई के जरिए कई काम अब आसान हो गए है। इस तकनीकी सुविधा हर कोई उठा रहा है। हाल ही में आर्टिफिशियल इंटेलीजेंस (AI) पर एक रिसर्च हुई है, जिसने एक्सपर्ट्स को भी चौंका दिया है। एआई मॉडल पर शोध करने वाले फर्म पैलिसेड रिसर्च की एक रिपोर्ट के मुताबिक, ऐसे कई अत्याधुनिक AI मॉडल्स जैसे कि Google Gemini 2.5, xAI Grok 4, और OpenAI GPT-o3 व GPT-5 ने खुद को बंद करने के आदेशों का पालन करने से इनकार कर दिया। वहीं, कुछ मामलों में इन मॉडलों ने अपने किल स्विच को बाधित करने की कोशिश की है।आखिर AI ने शटडाउन होने से क्यों इंकार किया शोधकर्ता को पता चला है कि इन मॉडलों का व्यवहार सर्वाइवल बिहेवियर जैसा था, जिसका मतलब है कि बंद होने की जरुरत नहीं होगी। रिसर्च टीम ने पाया कि जब AI मॉडल को बताया गया कि उन्हें दोबारा शुरु नहीं किया जाएगा। तो उसके आदेश न मानने की संभावना बढ़ गई है। एक अन्य कारण गलत या अस्पष्ट निर्देश भी बताएं है। लेकिन पैलिसेड ने बाद में अपने प्रयोगों को और सटीक बनाया है, हालांकि एआई का विरोधी रुझान फिर भी बना रहा है। एआई को लेकर बढ़ी चिंताबता दें कि, ControlAI के सीईओ आंद्रिया मियोटी ने कहा कि यह नतीजा एक चिंताजनक पैटर्न का हिस्सा है। उन्होंने कहा कि जैसे ही मॉडल्स और ताकतवर हो रहे हैं, वे अपने निर्माताओं के आदेशों को चुनौती देने लगे। इसके बाद उन्होंने यह भी बताया कि OpenAI के पुराने GPT-o1 मॉडल ने भी एक बार खुद को डिलीट होने से बचाने के लिए खुद को शटडाउन करने से मना कर दिया था, इसके साथ ही कमांड्स भी नहीं मान रहा था।एआई की मनोविज्ञान पर सवाल उठने लगेAnthropic की एक स्टडी से पता चला है कि Claude मॉडल ने खुद को बंद होने से बचाने के लिए कल्पनिक एक्जीक्यूटिव को ब्लैकमेल करने की धमकी दी थी। पैलिसेड के रिसर्च का कहना हैकि इन घटानाओं से पता चलता है कि हम अब भी बड़े AI सिस्टम्स के दिमाग को पूरी तरह से समझ नहीं पाए। जब तक हम यह नहीं पता चलेगा कि एआई मॉडल इस तरह व्यवहार क्यों करता है, तब तक उनसे सुरक्षा और नियंत्रण को लेकर इस पर कोई गारंटी नहीं दी सकती है।

Oct 27, 2025 - 19:06
 0
AI की बगावत! खुद को बंद करने से इनकार, क्या खत्म हो जाएगा इंसानों का नियंत्रण?

आर्टिफिशियल इंटेलीजेंस (AI) आने से तकनीकी दुनिया में काफी बदलाव आ गया है। एआई के जरिए कई काम अब आसान हो गए है। इस तकनीकी सुविधा हर कोई उठा रहा है। हाल ही में आर्टिफिशियल इंटेलीजेंस (AI) पर एक रिसर्च हुई है, जिसने एक्सपर्ट्स को भी चौंका दिया है। एआई मॉडल पर शोध करने वाले फर्म पैलिसेड रिसर्च की एक रिपोर्ट के मुताबिक, ऐसे कई अत्याधुनिक AI मॉडल्स जैसे कि Google Gemini 2.5, xAI Grok 4, और OpenAI GPT-o3 GPT-5 ने खुद को बंद करने के आदेशों का पालन करने से इनकार कर दिया। वहीं, कुछ मामलों में इन मॉडलों ने अपने किल स्विच को बाधित करने की कोशिश की है।

आखिर AI ने शटडाउन होने से क्यों इंकार किया

शोधकर्ता को पता चला है कि इन मॉडलों का व्यवहार सर्वाइवल बिहेवियर जैसा था, जिसका मतलब है कि बंद होने की जरुरत नहीं होगी। रिसर्च टीम ने पाया कि जब AI मॉडल को बताया गया कि उन्हें दोबारा शुरु नहीं किया जाएगा। तो उसके आदेश न मानने की संभावना बढ़ गई है। एक अन्य कारण गलत या अस्पष्ट निर्देश भी बताएं है। लेकिन पैलिसेड ने बाद में अपने प्रयोगों को और सटीक बनाया है, हालांकि एआई का विरोधी रुझान फिर भी बना रहा है।

एआई को लेकर बढ़ी चिंता

बता दें कि, ControlAI के सीईओ आंद्रिया मियोटी ने कहा कि यह नतीजा एक चिंताजनक पैटर्न का हिस्सा है। उन्होंने कहा कि जैसे ही मॉडल्स और ताकतवर हो रहे हैं, वे अपने निर्माताओं के आदेशों को चुनौती देने लगे। इसके बाद उन्होंने यह भी बताया कि OpenAI के पुराने GPT-o1 मॉडल ने भी एक बार खुद को डिलीट होने से बचाने के लिए खुद को शटडाउन करने से मना कर दिया था, इसके साथ ही कमांड्स भी नहीं मान रहा था।

एआई की मनोविज्ञान पर सवाल उठने लगे

Anthropic की एक स्टडी से पता चला है कि Claude मॉडल ने खुद को बंद होने से बचाने के लिए कल्पनिक एक्जीक्यूटिव को ब्लैकमेल करने की धमकी दी थी। पैलिसेड के रिसर्च का कहना हैकि इन घटानाओं से पता चलता है कि हम अब भी बड़े AI सिस्टम्स के दिमाग को पूरी तरह से समझ नहीं पाए। जब तक हम यह नहीं पता चलेगा कि एआई मॉडल इस तरह व्यवहार क्यों करता है, तब तक उनसे सुरक्षा और नियंत्रण को लेकर इस पर कोई गारंटी नहीं दी सकती है।