मौसम क्रिकेट ऑपरेशन सिंदूर क्रिकेट स्पोर्ट्स बॉलीवुड जॉब - एजुकेशन बिजनेस लाइफस्टाइल देश विदेश राशिफल लाइफ - साइंस आध्यात्मिक अन्य
---Advertisement---

Openai नए तर्क मॉडल के साथ एक खुले AI मिशन को फिर से खोजता है

On: August 6, 2025 5:20 AM
Follow Us:
---Advertisement---


2019 में GPT-2 के बाद से यह एक लंबा इंतजार था, लेकिन Openai अब अपने नवीनतम ओपन-वेट बड़े भाषा मॉडल (LLMS) को जारी कर रहा है। उन्हें GPT-OSS डब किया गया है, वर्तमान में GPT-OSS-120B और GPT-OSS-20B से मिलकर, “रीज़निंग मॉडल” डब किया गया है, जिसमें ओपनआईएआई का दावा है कि इन मॉडलों को तर्क कार्यों पर समान रूप से आकार के खुले मॉडल से बेहतर ढंग से किया गया है। इस का महत्व एक तरह से ओपनई को वापस लाता है, एक तरह से, एआई सिस्टम के निर्माण के अपने मूल मिशन के लिए जो मानवता के सभी को लाभान्वित करता है। इन वर्षों में, आर्टिफिशियल इंटेलिजेंस (एआई) कंपनी ने उस घोषित मिशन के प्रति व्याकुलता की आलोचना का सामना किया है, क्योंकि प्रतिस्पर्धा तेजी से बढ़ी।

Openai ने ओपन सोर्स मॉडल जारी नहीं किए हैं। (आधिकारिक छवि)

“GPT-OSS-120B और GPT-OSS-20B को जारी करना, खुले वजन वाले मॉडल के लिए एक महत्वपूर्ण कदम आगे बढ़ाता है। उनके आकार में, ये मॉडल दोनों तर्क क्षमताओं और सुरक्षा दोनों में सार्थक प्रगति प्रदान करते हैं। खुले मॉडल हमारे होस्ट किए गए मॉडल को पूरक करते हैं, जिससे डेवलपर्स को अग्रणी एज रिसर्च, फोस्टर इनोवेशन में तेजी लाने के लिए उपकरणों की एक विस्तृत श्रृंखला मिलती है, जो कि एक वाइड रेंज के लिए अधिक ट्रांसपेरेंट AI विकास को सक्षम करती है।

यह भी पढ़ें:ओपनईआई के नए सीईओ फिदजी सिमो, जोर देकर कहते हैं कि एआई लोगों के हाथों में सत्ता डाल सकता है

GPT-OSS-120B और GPT-OSS-20B मॉडल की बारीकियों में आने से पहले दो प्रश्नों का उत्तर देने की आवश्यकता है। सबसे पहले, खुले वजन एलएलएम क्या हैं और क्या वे एलएलएम से अलग हैं जो आप नियमित रूप से उपयोग करते हैं? और दूसरी बात, तर्क मॉडल क्या हैं? पूर्व को एक बड़े भाषा मॉडल के रूप में सबसे अच्छा परिभाषित किया गया है जो एक कंपनी द्वारा सार्वजनिक रूप से जारी की जाती है, इसकी संपूर्णता में, जिसका अर्थ है कि सभी वास्तविक मॉडल वेट (इसे मापदंडों के रूप में पढ़ें, जो कि बिलियन या “बी” द्वारा परिभाषित मॉडल नामों में परिभाषित किया गया है) और कोई भी उपयोगकर्ता इन मॉडलों को पूरी तरह से अपने हार्डवेयर पर डाउनलोड कर सकता है।

इसकी तुलना में, सबसे लोकप्रिय LLMS जो आपने उपयोग किया है, जिसमें ओपनईआई के अपने जीपीटी मॉडल के साथ -साथ Google मिथुन 2.5 और एंथ्रोपिक के क्लाउड सोननेट 4 की पसंद शामिल हैं, बंद मॉडल हैं – इसका मतलब है कि वे एक एप्लिकेशन लेयर के माध्यम से सुलभ हैं जबकि मॉडल वेट सार्वजनिक डोमेन में नहीं हैं। इसी समय, मेटा के लामा मॉडल, साथ ही साथ मिस्ट्रल द्वारा कुछ मॉडलों ने हाल के दिनों में खुले वजन पद्धति का पालन किया है।

ओपन वेट एआई मॉडल हालांकि ओपन सोर्स मॉडल के साथ भ्रमित नहीं हैं, लेकिन ठीक अंतर यह है कि बाद वाले मॉडल जैसे कि डीपसेक आर 1 भी प्रशिक्षण कोड, डेटासेट और लिंक किए गए दस्तावेज को सार्वजनिक रूप से उपलब्ध कराते हैं – खुले वजन मॉडल नहीं। प्रशिक्षण कोड और डेटा सेट होने से उपयोगकर्ता या डेवलपर को स्क्रैच से एक ओपन-सोर्स मॉडल को वापस करने की अनुमति मिलती है, अक्सर अनुकूलित उपयोग परिदृश्यों के लिए। यह लचीलापन खुले वजन के मॉडल के लिए नहीं है, हालांकि उनकी संपूर्णता में सुलभ है। Openai ने ओपन सोर्स मॉडल जारी नहीं किए हैं।

दूसरे प्रश्न के लिए, रीज़निंग मॉडल इस अर्थ में कुछ अन्य एलएलएम से थोड़ा भिन्न होते हैं कि वे विशेष रूप से अपनी अंतिम प्रतिक्रिया उत्पन्न करने से पहले जटिल समस्याओं के माध्यम से “सोचने” के लिए अधिक समय बिताने के लिए डिज़ाइन किए गए हैं। उनसे अपेक्षा की जाती है कि वे बहु-चरणीय समस्याओं के माध्यम से काम करने के लिए विस्तारित तर्क प्रक्रियाओं का उपयोग करें।

GPT-OSS-120B और GPT-OSS-20B पर वापस जाएं, और प्राथमिक अंतर प्रत्येक मापदंडों की संख्या में है। पैरामीटर अनिवार्य रूप से एक मानव मस्तिष्क में सिनैप्स की ताकत की तरह होते हैं, जो यह निर्धारित करता है कि क्वेरी के लिए एक उत्तर प्रदान करने से पहले, “न्यूरॉन्स” एक -दूसरे को कैसे प्रभावित करते हैं। इस बार Openai की नामकरण योजना में, थोड़ा भ्रम है-GPT-OSS-120B एक 117 बिलियन पैरामीटर मॉडल है, जबकि छोटे GPT-OSS-20B में 21 बिलियन पैरामीटर हैं।

Openai के बेंचमार्क स्कोर अधिकांश परीक्षणों में O3 और O4-Mini मॉडल के करीब GPT-OSS-1220B और GPT-OSS-20B को खूंटे देते हैं। उदाहरण के लिए MMLU बेंचमार्क, जिसमें अकादमिक विषयों में प्रश्न शामिल हैं-GPT-OSS-1220B ने 90% सटीकता वापस कर दी जबकि GPT-OSS-20B ने 85.3% सटीकता को देखा; इसकी तुलना में, O3 (93.4%), O4-Mini (93%) और O3-Mini (87%) नए खुले वजन मॉडल को बुक करते हैं।

बस अगर आप अपने कंप्यूटिंग डिवाइस पर इन खुले वजन मॉडल को डाउनलोड करने और चलाने के लिए मेमोरी आवश्यकताओं के बारे में सोच रहे हैं, तो Openai यह पुष्टि करता है कि GPT-OSS-120B मॉडल को सिस्टम पर 80GB मेमोरी की आवश्यकता होगी, जबकि GPT-OSS-20B को कम से कम 16GB की आवश्यकता होती है। वे कहते हैं कि Microsoft GPU-OSS-20B मॉडल के GPU- अनुकूलित संस्करणों को Windows उपकरणों के लिए भी ला रहा है।



Source

Dhiraj Singh

में धिरज सिंह हमेशा कोशिश करता हूं कि सच्चाई और न्याय, निष्पक्षता के साथ समाचार प्रदान करें, और इसके लिए हमें आपके जैसे जागरूक पाठकों का सहयोग चाहिए। कृपया हमारे अभियान में सपोर्ट देकर स्वतंत्र पत्रकारिता को आगे बढ़ाएं!

Join WhatsApp

Join Now

Join Telegram

Join Now

Leave a Comment