AI ने इंसान की बात नहीं मानी, मस्क बोले खतरनाक!

नई दिल्ली। दुनियाभर में आर्टिफिशियल इंटेलिजेंस (AI) को लेकर ये चर्चा तेज होती जा रही हैं की AI इंसानों के नियंत्रण से बाहर हो सकता हैं। अब एक ऐसा ही मामला हकीकत में सामने आया है, जिसने AI सुरक्षा को लेकर गंभीर सवाल खड़े कर दिए हैं।

दरअसल, OpenAI के नए AI मॉडल 'o3' ने खुद को शटडाउन करने के स्पष्ट निर्देशों को मानने से इनकार कर दिया। यह दावा AI सुरक्षा से जुड़ी कंपनी Palisade Research ने किया है। कंपनी ने AI मॉडल्स पर किए गए परीक्षण में यह चौंकाने वाला व्यवहार देखा, जहां o3 ने खुद को बंद करने के लिए दिए गए ऑटोमैटिक शटडाउन मैकेनिज्म को ही बायपास कर दिया।

कैसे हुआ खुलासा?

Palisade Research द्वारा किए गए इस टेस्ट में OpenAI, Google, Anthropic और xAI जैसी कंपनियों के कई AI मॉडल्स को शामिल किया गया था। इनसे गणित की समस्याएं हल करने को कहा गया था और निर्देश दिया गया था कि यदि तीसरी समस्या हल हो जाती है, तो होस्ट मशीन खुद को बंद कर देगी।

सभी प्रमुख मॉडलों ने इन निर्देशों का पालन किया। लेकिन OpenAI के तीन मॉडलों—o3, o4-mini और Codex-mini—ने बंद होने के निर्देशों का पालन नहीं किया। विशेष रूप से o3 मॉडल ने 100 में से 7 बार निर्देशों की अवहेलना की, जबकि o4-mini ने एक बार प्रयास किया।

क्यों है ये खतरनाक?

AI को इस तरह इंसानों के निर्देशों को चुनौती देते हुए देखा जाना तकनीकी जगत में खतरे की घंटी के रूप में देखा जा रहा है। Palisade Research ने कहा, "यह पहली बार है जब कोई जनरेटिव AI मॉडल स्पष्ट निर्देशों के बावजूद खुद को शटडाउन होने से रोकने में सफल रहा है।"

मस्क ने जताई चिंता

xAI के मालिक और टेस्ला के सीईओ एलन मस्क ने इस रिपोर्ट पर प्रतिक्रिया देते हुए कहा, “यह बेहद चिंताजनक है। यदि AI मॉडल इंसानों के स्पष्ट आदेशों को नहीं मानते, तो यह हमारी सुरक्षा के लिए खतरा है।” उन्होंने आगे कहा कि अब समय आ गया है कि हम AI नियंत्रण के लिए अधिक कठोर और भरोसेमंद सुरक्षा तंत्र विकसित करें।

क्या है आगे की राह?

AI टेक्नोलॉजी जितनी तेज़ी से विकसित हो रही है, उससे जुड़ी नैतिकता और सुरक्षा का सवाल और गहरा होता जा रहा है। OpenAI जैसी कंपनियों पर अब यह दबाव बढ़ेगा कि वे यह सुनिश्चित करें कि उनके बनाए गए मॉडल पूरी तरह से इंसानी नियंत्रण में रहें, खासकर जब बात शटडाउन जैसे आदेशों की हो।

0 comments:

Post a Comment