गूगल ने लॉन्च किया Gemini 2.0 फ्लैश थिंकिंग मोड, OpenAI o1 जैसा रीजनिंग मॉडल
By: Rajesh Bhagtani Fri, 20 Dec 2024 3:22:48
गूगल ने अपने जेमिनी 2.0 मॉडल में एक नया फीचर पेश किया है, जिसे फ्लैश थिंकिंग मोड कहा जाता है। मॉडल को जेमिनी 2.0 के संज्ञानात्मक प्रदर्शन को बढ़ावा देने के लिए डिज़ाइन किया गया है, जिससे मॉडल अधिक तार्किक और जटिल संकेतों में संलग्न हो सके। हालाँकि, OpenAI o1 की तरह, फ्लैश थिंकिंग मोड में फ्लैश क्वालिटी नहीं है, यह जटिल समस्याओं को हल करने में अपना अच्छा समय लेता है। I. कंपनी द्वारा डेमो, लिया गया समय दूसरों की तुलना में थोड़ा तेज़ है।
गूगल डीपमाइंड के मुख्य वैज्ञानिक जेफ डीन ने एक पोस्ट में बताया कि नया मॉडल "अपने तर्क को मजबूत करने के लिए विचारों का उपयोग करने के लिए प्रशिक्षित है।"
जेमिनी 2.0 फ्लैश थिंकिंग एक्सपेरीमेंटल नाम का नया मॉडल अब Google के AI प्रोटोटाइपिंग प्लेटफ़ॉर्म, AI स्टूडियो पर उपलब्ध है। इसके मॉडल कार्ड के अनुसार, यह मल्टीमॉडल समझ, तर्क और कोडिंग में उत्कृष्ट है, साथ ही प्रोग्रामिंग, गणित और भौतिकी जैसे क्षेत्रों में सबसे जटिल चुनौतियों से निपटने की क्षमता रखता है।
जेमिनी 2.0 का फ्लैश थिंकिंग मोड कैसे काम करता है?
किसी संकेत को दिए जाने पर, जेमिनी 2.0 फ्लैश थिंकिंग एक्सपेरीमेंटल जवाब देने से पहले रुकता है, कई संबंधित संकेतों पर विचार करता है और साथ ही अपने तर्क को “समझाता” है। कुछ समय बाद, मॉडल संक्षेप में बताता है कि उसे सबसे सटीक उत्तर क्या लगता है।
यह नया तर्क मॉडल जेमिनी 2.0 को कई तरह के कार्यों को संभालने में सक्षम बनाता है, जिनमें तार्किक निष्कर्ष, आलोचनात्मक विश्लेषण और निर्णय लेने की आवश्यकता होती है।
इस मुफ़्त संस्करण में टोकन की सीमा 32,767 है, जो इसे अन्य जेमिनी मॉडल की तुलना में अधिक प्रतिबंधित बनाता है। हालाँकि, डेमो के आधार पर, जटिल समस्याओं से निपटने में इसकी गति प्रभावशाली है, जो आमतौर पर पारंपरिक AI मॉडल को चुनौती देती है। लॉन्च डेमो में पहेलियाँ, संभाव्यता समस्याएँ और उन्नत तर्क की आवश्यकता वाले अन्य कार्य शामिल हैं।
Google का Gemini 2.0 फ्लैश थिंकिंग मोड बनाम OpenAI o1
Google के दृष्टिकोण और OpenAI के बीच एक मुख्य अंतर यह है कि Gemini 2.0 फ्लैश थिंकिंग अपने काम करते समय अपनी तर्क प्रक्रिया को प्रकट करता है, जबकि OpenAI का मॉडल अपनी विचार प्रक्रिया को छिपाए रखता है। यह पारदर्शिता उन उपयोगकर्ताओं के लिए महत्वपूर्ण है जो मॉडल के तर्क को ट्रैक करना चाहते हैं और यह सुनिश्चित करना चाहते हैं कि विचारों की लंबी श्रृंखला के दौरान कोई भ्रम न हो।
एक और बड़ा अंतर यह है कि Google का AI स्टूडियो उपयोगकर्ताओं को विभिन्न प्रतिक्रियाओं का परीक्षण करने के लिए सुरक्षा सेटिंग्स को समायोजित करने की अनुमति देता है। उदाहरण के लिए, उपयोगकर्ता उत्पीड़न, घृणा, खतरनाक और स्पष्ट सामग्री से संबंधित सेटिंग्स को संशोधित कर सकते हैं और देख सकते हैं कि ये समायोजन मॉडल की तर्क क्षमताओं को कैसे प्रभावित करते हैं।