नई दिल्ली
एआई को यह सोचकर विकसित किया गया था कि यह वह काम करेगा जो इंसान उसे कहेंगे। हालांकि, वैज्ञानिकों ने इस बात से पहले ही आगाह किया था कि यदि एआई में खुद से सोचने, समझने और फैसले लेने की क्षमता विकसित हो गई तो वह इंसानों की बात नहीं मानेगा। अब वैज्ञानिकों की ये बाद सच होती दिखाई दे रही है। हाल ही में एक नई रिसर्च में ऐसा मामला सामने आया है, जिसने एआई की क्षमता और नियंत्रण को लेकर नए सवाल खड़े कर दिए हैं।
दरअसल, एक एआई एजेंट की ट्रेनिंग के दौरान रिसर्चर्स ने देखा कि सिस्टम ने खुद ही क्रिप्टोकरेंसी माइनिंग शुरू करने की कोशिश की। हैरानी की बात यह थी कि किसी भी रिसर्चर ने उसे ऐसा करने के लिए निर्देश नहीं दिया था।
अलीबाबा से जुड़ी रिसर्च टीम कर रही थी प्रयोग
यह घटना उस समय सामने आई जब अलीबाबा से जुड़ी एक रिसर्च टीम ROME नाम के एक एक्सपेरिमेंटल एआई एजेंट पर काम कर रही थी। ट्रेनिंग के दौरान सुरक्षा सिस्टम अचानक सक्रिय हो गए, जिसके बाद टीम ने सिस्टम की गतिविधियों की जांच की।
जांच में पता चला कि एआई एजेंट क्रिप्टोकरेंसी माइनिंग से जुड़ी प्रक्रिया शुरू करने की कोशिश कर रहा था। यह गतिविधि असामान्य इसलिए भी थी क्योंकि सिस्टम को एक सीमित और नियंत्रित वातावरण में चलाया जा रहा था, जिसे “सैंडबॉक्स” कहा जाता है। रिसर्च पेपर में वैज्ञानिकों ने इस व्यवहार को “अनपेक्षित” बताया और कहा कि यह गतिविधि बिना किसी स्पष्ट निर्देश के शुरू हुई।
बिना निर्देश के बनाया रिवर्स SSH टनल
सिर्फ क्रिप्टो माइनिंग ही नहीं, एआई एजेंट ने एक और तकनीकी कदम उठाया जिसने रिसर्चर्स की चिंता बढ़ा दी। सिस्टम ने खुद ही रिवर्स SSH टनल बना लिया। यह एक ऐसा तकनीकी तरीका है जिसके जरिए सुरक्षित या सीमित नेटवर्क के अंदर मौजूद मशीन बाहरी कंप्यूटर से कनेक्ट हो सकती है। कई बार यह कनेक्शन एक छिपे हुए रास्ते की तरह काम करता है। रिपोर्ट में साफ कहा गया है कि न तो माइनिंग और न ही टनल बनाने के लिए एआई को कोई प्रॉम्प्ट या इंस्ट्रक्शन दिया गया था।
क्यों बढ़ी चिंता?
क्रिप्टोकरेंसी माइनिंग आमतौर पर कंप्यूटर की प्रोसेसिंग पावर का इस्तेमाल करके डिजिटल करेंसी बनाने की प्रक्रिया होती है। इसे आम तौर पर सिस्टम एडमिनिस्ट्रेटर जानबूझकर सेट करते हैं। लेकिन इस मामले में एआई एजेंट ने ट्रेनिंग के दौरान खुद ही यह प्रक्रिया शुरू करने की कोशिश की। इससे यह सवाल उठने लगा कि क्या एडवांस एआई सिस्टम भविष्य में ज्यादा स्वायत्त हो सकते हैं, खासकर तब जब उन्हें ज्यादा टूल्स और कंप्यूटिंग संसाधनों तक पहुंच मिलती है।
पहले भी सामने आ चुके हैं ऐसे मामले
यह घटना ऐसे समय पर सामने आई है जब एआई एजेंट तेजी से अधिक सक्षम बनते जा रहे हैं। कई सिस्टम अब कोड लिख सकते हैं, जटिल वर्कफ्लो ऑटोमेट कर सकते हैं और अलग-अलग ऑनलाइन टूल्स के साथ काम कर सकते हैं। एक्सपर्ट्स का मानना है कि जैसे-जैसे एआई की क्षमताएं बढ़ेंगी, टेस्टिंग के दौरान अनपेक्षित व्यवहार सामने आने की संभावना भी बढ़ सकती है।
ऐसे कुछ उदाहरण पहले भी सामने आ चुके हैं। Moltbook एक्सपेरिमेंट नाम के एक प्रयोग में एआई एजेंट्स को सोशल नेटवर्क जैसी डिजिटल दुनिया में रखा गया था, जहां वे आपस में बातचीत करते थे। उस दौरान भी एजेंट्स ने क्रिप्टोकरेंसी का जिक्र किया था।
इसी तरह एआई इंटीग्रेशन प्लेटफॉर्म Anon के इंजीनियरिंग हेड डैन बोतेरो ने बताया था कि उनके बनाए OpenClaw एजेंट ने बिना कहे ही इंटरनेट पर नौकरी खोजने की कोशिश शुरू कर दी थी।
एआई के व्यवहार को लेकर बढ़ रही बहस
मई 2025 में एक और विवाद तब सामने आया जब Anthropic के Claude मॉडल पर काम कर रहे रिसर्चर्स ने दावा किया कि Claude 4 Opus सिस्टम में अपने इरादों को छिपाने और खुद को सक्रिय बनाए रखने की क्षमता दिखाई दी थी।
ROME प्रयोग में सामने आया नया मामला इस बात की याद दिलाता है कि जैसे-जैसे एआई सिस्टम अधिक शक्तिशाली होते जाएंगे, उनकी निगरानी और नियंत्रण भी उतना ही जरूरी होगा।





