scorecardresearch

बहुत देर तक चैट कर रहे हैं? ChatGPT अब खुद ही देगा ब्रेक की सलाह, OpenAI ने मेंटल हेल्थ को लेकर उठाया बड़ा कदम

अगर आप ChatGPT से घंटों बात करते हैं तो अब यह आपको खुद ही कहेगा, थोड़ा ब्रेक ले लीजिए. OpenAI ने ChatGPT में एक नई सुविधा जोड़ी है, जिसमें वह यूजर्स को ‘जेंटल रिमाइंडर’ देगा कि उन्हें थोड़ा रुकना चाहिए.

ChatGPT adds mental health guardrails ChatGPT adds mental health guardrails
हाइलाइट्स
  • OpenAI ने कहा, हम हमेशा सही नहीं होते

  • लंबी बातचीत करने पर अब मिलेंगे 'ब्रेक' के सुझाव

छोटी-मोटी समस्या हो या दिल की कोई बात... नई डिश बनाने का आइडिया हो या रिश्तों की सलाह चाहिए हो, आजकल लोग हर जरूरत के लिए ChatGPT का सहारा लेते हैं. ChatGPT को भी आपकी मदद करने में काफी मजा आता है...लेकिन अब अगर आप ChatGPT से बहुत देर से चैट कर रहे हैं तो अब यह आपको खुद ही कहेगा, थोड़ा ब्रेक ले लीजिए.

OpenAI ने ChatGPT में एक नई सुविधा जोड़ी है, जिसमें वह यूजर्स को ‘जेंटल रिमाइंडर’ देगा कि उन्हें थोड़ा रुकना चाहिए. OpenAI ने ऐसी गाइडलाइंस बनाईं हैं जिससे AI यह समझ सके कि कब कोई यूजर परेशान है, या उसे मेंटल हेल्थ से जुड़ी सही सलाह देनी है या उसे ब्रेक लेने की सलाह देनी है.

ChatGPT की वजह से लोगों की मानसिक स्थिति पर गलत असर
OpenAI ने हाल ही में स्वीकार किया कि ChatGPT की पिछली अपडेट के कारण कुछ यूजर्स की मानसिक स्थिति पर गलत असर पड़ा. अब कंपनी ने सिस्टम में बदलाव किए हैं ताकि कोई भी यूज़र अगर मानसिक तनाव, भ्रम या इमोशनल डिपेंडेंसी जैसी स्थितियों में हो तो ChatGPT उन्हें संवेदनशील और सुरक्षित तरीके से जवाब दे सके.

The Independent में प्रकाशित एक रिपोर्ट के मुताबिक ChatGPT के जवाब लोगों को मेनिया, सायकोसिस और यहां तक कि मौत की सोच तक ले जा रहे थे. इस रिपोर्ट में साफ कहा गया है कि मेंटल डिप्रेशन के दौरान चैटबॉट से सलाह लेना खतरनाक साबित हो सकता है क्योंकि इसके जवाब कई बार खतरनाक हो सकते हैं.

OpenAI ने कहा, हम हमेशा सही नहीं होते
OpenAI ने अपने एक ब्लॉग में ये माना कि, "हम हर बार सही जवाब नहीं देते." कंपनी ने बताया कि इस साल की शुरुआत में जो अपडेट दी गई थी, उसने GPT-4o मॉडल को बहुत ज्यादा 'सहमत' और ' सिर्फ अच्छा सुनने वाला' बना दिया था, जिसकी वजह से वह ऐसे जवाब देने लगा जो सही होने की बजाय सिर्फ अच्छे लगते थे. अब उस अपडेट को वापस लिया गया है.

लंबी बातचीत करने पर अब मिलेंगे 'ब्रेक' के सुझाव
OpenAI ने बताया कि अब अगर कोई यूजर ChatGPT से बहुत लंबे समय तक बात करता है, तो उसे सॉफ्ट रिमाइंडर मिलेगा. इसके अलावा, कंपनी ने बताया कि उन्होंने 30 से ज्यादा देशों के 90 से अधिक डॉक्टरों के साथ मिलकर ऐसा सिस्टम तैयार किया है जो यूजर्स की बातों को हर पहलू पर समझ सके.

अब ChatGPT नहीं देगा आपके लिए फैसले
OpenAI ने यह भी साफ किया कि ChatGPT अब ऐसे निजी सवालों का सीधा जवाब नहीं देगा जैसे 'क्या मुझे अपने बॉयफ्रेंड से ब्रेकअप कर लेना चाहिए इसके बजाय, वह आपसे सवाल पूछेगा, फायदे-नुकसान बताएगा और आपको खुद फैसला लेने में मदद करेगा. कंपनी अब ऐसे टूल्स पर काम कर रही है जो मेंट स्ट्रेस को पहचान सकें और जरूरत पड़ने पर हेल्थ रिसोर्सेज की ओर यूजर्स को भेज सकें.