
पिछले कुछ समय में लोग हर छोटे-बड़े सवाल का जवाब पाने के लिए आर्टिफिशियल इंटेलिजेंस (AI) पर निर्भर होने लगे हैं — चाहे बात हो स्वास्थ्य से जुड़ी सलाह की, कानूनी जानकारी की या निवेश के फैसलों की। लेकिन अब इस सुविधा में बड़ा बदलाव आने वाला है। OpenAI ने घोषणा की है कि उसका लोकप्रिय चैटबॉट ChatGPT अब मेडिकल, लीगल या फाइनेंशियल मामलों पर कोई सीधी सलाह नहीं देगा।
29 अक्टूबर से लागू हुआ नया नियम
OpenAI ने 29 अक्टूबर से यह नई नीति लागू कर दी है। अब ChatGPT को शिक्षा और सामान्य जानकारी देने वाला टूल घोषित किया गया है, न कि व्यक्तिगत सलाहकार। रिपोर्ट के अनुसार, अब यह चैटबॉट न तो किसी दवा का नाम या खुराक बताएगा, न ही किसी कानूनी केस के लिए रणनीति सुझाएगा, और न ही शेयर या निवेश संबंधी सलाह देगा।
ChatGPT अब सिर्फ जानकारी देगा, निर्णय नहीं
NEXTA की रिपोर्ट के मुताबिक, अब ChatGPT केवल सामान्य सिद्धांतों और अवधारणाओं की व्याख्या करेगा। अगर किसी को व्यक्तिगत सलाह चाहिए, तो चैटबॉट अब यूजर्स को डॉक्टर, वकील या वित्तीय सलाहकार जैसे प्रोफेशनल्स से संपर्क करने की सलाह देगा। यह कदम उन मामलों के बाद उठाया गया है जब लोगों ने ChatGPT की दी गई सलाह पर भरोसा किया और उन्हें गंभीर परिणाम झेलने पड़े।
ChatGPT की गलत सलाह से हुआ था बड़ा हादसा
ऐसा ही एक मामला अगस्त 2024 में सामने आया था। रिपोर्ट्स के अनुसार, एक 60 वर्षीय व्यक्ति ने ChatGPT की सलाह पर टेबल सॉल्ट की जगह सोडियम ब्रोमाइड का सेवन कर लिया था। इसके बाद उसे तीन हफ्तों तक अस्पताल में भर्ती रहना पड़ा। Annals of Internal Medicine की रिपोर्ट में बताया गया कि सेवन के 24 घंटे के भीतर ही मरीज को भ्रम (hallucinations) और पैरानॉइया (paranoia) जैसी गंभीर मानसिक समस्याएं होने लगीं।
OpenAI का मकसद — सुरक्षित और जिम्मेदार AI उपयोग
कंपनी का कहना है कि यह कदम यूजर्स की सुरक्षा और जिम्मेदारीपूर्ण एआई उपयोग सुनिश्चित करने के लिए उठाया गया है। OpenAI चाहती है कि ChatGPT को एक शिक्षा और ज्ञान साझा करने वाले मंच के रूप में देखा जाए, न कि किसी विशेषज्ञ के विकल्प के रूप में।














