
ओपनएआई ने संयुक्त राज्य अमेरिका के रक्षा विभाग के साथ एक ऐतिहासिक समझौता किया है ताकि उसके कृत्रिम बुद्धिमत्ता मॉडल को वर्गीकृत सैन्य प्रणालियों में तैनात किया जा सके।
यह समझौता कृत्रिम बुद्धिमत्ता कंपनियों और पेंटागन के बीच बदलते गतिशीलता के समय में आया है। हाल तक, एंथ्रोपिक के क्लॉड सिस्टम को वर्गीकृत सैन्य प्रणालियों में संचालित करने के लिए अधिकृत एकमात्र अग्रणी एआई मॉडल था।
हालांकि, रक्षा विभाग ने कथित तौर पर एंथ्रोपिक के लिए कुछ आंतरिक सुरक्षा उपायों को ढीला करने और "सभी कानूनी उपयोग" के लिए अपने सिस्टम को अनुमति देने की समय सीमा निर्धारित की, चेतावनी दी कि अनुपालन में विफलता $200 मिलियन के अनुबंध को जोखिम में डाल सकती है और कंपनी को "आपूर्ति श्रृंखला जोखिम" के रूप में लेबल किया जा सकता है।
एंथ्रोपिक ने बनाए रखा है कि स्वायत्त हथियारों और जन निगरानी के संबंध में उसकी आरक्षण तकनीकी सीमाओं और वर्तमान कानूनी ढांचे में अंतराल से उत्पन्न होती है। इस बीच, एक पेंटागन अधिकारी ने पुष्टि की कि एलोन मस्क के ग्रोक, जिसे XAI द्वारा विकसित किया गया है, को अब वर्गीकृत उपयोग के लिए मंजूरी दे दी गई है, अन्य फर्मों के साथ समान व्यवस्थाओं को अंतिम रूप देने के करीब हैं।
इस विकसित हो रहे वातावरण में, ओपनएआई ने रक्षा विभाग से सभी AI प्रदाताओं को समान संविदात्मक शर्तें प्रदान करने का आग्रह किया है। "हमने कानूनी और सरकारी कार्यों से दूर होकर और उचित समझौतों की ओर चीजों को कम करने की अपनी मजबूत इच्छा व्यक्त की है," सैम ऑल्टमैन ने लिखा।
इस पृष्ठभूमि के खिलाफ, ओपनएआई ने संयुक्त राज्य अमेरिका के रक्षा विभाग के साथ एक ऐतिहासिक समझौता औपचारिक रूप दिया है ताकि उसके AI मॉडल को वर्गीकृत सैन्य क्लाउड नेटवर्क में तैनात किया जा सके, सिलिकॉन वैली और पेंटागन के बीच संबंधों को गहरा करने में एक प्रमुख कदम।
मुख्य कार्यकारी अधिकारी सैम ऑल्टमैन ने एक्स पर विकास की घोषणा की, कहा, "आज रात, हमने अपने मॉडल को उनके वर्गीकृत नेटवर्क में तैनात करने के लिए युद्ध विभाग के साथ एक समझौता किया।" उन्होंने कहा कि पेंटागन ने "सुरक्षा के लिए गहरी सम्मान और सर्वोत्तम संभव परिणाम प्राप्त करने के लिए साझेदारी की इच्छा" दिखाई है।
ओपनएआई ने पुष्टि की कि उसके मॉडल केवल सुरक्षित क्लाउड अवसंरचना पर संचालित होंगे और क्षेत्र तैनाती इंजीनियरों को कार्यान्वयन की देखरेख करने और अनुपालन सुनिश्चित करने के लिए नियुक्त किया जाएगा।
ऑल्टमैन ने जोर दिया कि ओपनएआई के बुनियादी सुरक्षा सिद्धांत समझौते में लिखे गए हैं। इनमें घरेलू जन निगरानी पर प्रतिबंध और स्वायत्त हथियार प्रणालियों के भीतर बल के उपयोग में मानव जिम्मेदारी बनाए रखने की आवश्यकता शामिल है।
"डॉव इन सिद्धांतों से सहमत है, उन्हें कानून और नीति में दर्शाता है, और हम उन्हें अपने समझौते में डालते हैं," ऑल्टमैन ने कहा। "हम यह भी तकनीकी सुरक्षा उपाय बनाएंगे ताकि हमारे मॉडल जैसा उन्हें करना चाहिए वैसा ही व्यवहार करें, जो डॉव भी चाहता था।"
एक ओपनएआई प्रवक्ता ने पहले पुष्टि की थी कि कंपनी सैन्य कार्य में शामिल होने पर एंथ्रोपिक के समान "लाल रेखाएं" बनाए रखती है, विशेष रूप से घरेलू निगरानी कार्यक्रमों और पूरी तरह से स्वायत्त हथियारों के उपयोग के विरोध में।
यह समझौता राष्ट्रीय सुरक्षा में AI के एकीकरण में एक महत्वपूर्ण क्षण को चिह्नित करता है। जबकि प्रौद्योगिकी फर्मों और सैन्य के बीच संबंधों को मजबूत करता है, यह सख्त सुरक्षा प्रतिबद्धताओं, कानूनी अनुपालन और जिम्मेदार तैनाती के महत्व को भी रेखांकित करता है। विकसित हो रही रक्षा-AI साझेदारी भविष्य के नियामक और नैतिक मानकों को वैश्विक रूप से आकार देने की संभावना है।
अस्वीकरण: यह ब्लॉग विशेष रूप से शैक्षिक उद्देश्यों के लिए लिखा गया है। उल्लिखित प्रतिभूतियां केवल उदाहरण हैं और सिफारिशें नहीं हैं। यह व्यक्तिगत सिफारिश/निवेश सलाह का गठन नहीं करता है। इसका उद्देश्य किसी भी व्यक्ति या इकाई को निवेश निर्णय लेने के लिए प्रभावित करना नहीं है। प्राप्तकर्ताओं को निवेश निर्णयों के बारे में स्वतंत्र राय बनाने के लिए अपनी खुद की शोध और मूल्यांकन करना चाहिए।
प्रतिभूति बाजार में निवेश बाजार जोखिमों के अधीन हैं, निवेश करने से पहले सभी संबंधित दस्तावेजों को ध्यान से पढ़ें।
प्रकाशित:: 2 Mar 2026, 10:06 pm IST

Team Angel One
हम अब WhatsApp! पर लाइव हैं! बाज़ार की जानकारी और अपडेट्स के लिए हमारे चैनल से जुड़ें।
