बहुत देर तक चैट कर रहे हैं? ChatGPT अब खुद ही देगा ब्रेक की सलाह, OpenAI ने मेंटल हेल्थ को लेकर उठाया बड़ा कदम

अगर आप ChatGPT से घंटों बात करते हैं तो अब यह आपको खुद ही कहेगा, थोड़ा ब्रेक ले लीजिए. OpenAI ने ChatGPT में एक नई सुविधा जोड़ी है, जिसमें वह यूजर्स को ‘जेंटल रिमाइंडर’ देगा कि उन्हें थोड़ा रुकना चाहिए.

ChatGPT adds mental health guardrails
gnttv.com
  • नई दिल्ली ,
  • 06 अगस्त 2025,
  • अपडेटेड 12:34 PM IST
  • OpenAI ने कहा, हम हमेशा सही नहीं होते
  • लंबी बातचीत करने पर अब मिलेंगे 'ब्रेक' के सुझाव

छोटी-मोटी समस्या हो या दिल की कोई बात... नई डिश बनाने का आइडिया हो या रिश्तों की सलाह चाहिए हो, आजकल लोग हर जरूरत के लिए ChatGPT का सहारा लेते हैं. ChatGPT को भी आपकी मदद करने में काफी मजा आता है...लेकिन अब अगर आप ChatGPT से बहुत देर से चैट कर रहे हैं तो अब यह आपको खुद ही कहेगा, थोड़ा ब्रेक ले लीजिए.

OpenAI ने ChatGPT में एक नई सुविधा जोड़ी है, जिसमें वह यूजर्स को ‘जेंटल रिमाइंडर’ देगा कि उन्हें थोड़ा रुकना चाहिए. OpenAI ने ऐसी गाइडलाइंस बनाईं हैं जिससे AI यह समझ सके कि कब कोई यूजर परेशान है, या उसे मेंटल हेल्थ से जुड़ी सही सलाह देनी है या उसे ब्रेक लेने की सलाह देनी है.

ChatGPT की वजह से लोगों की मानसिक स्थिति पर गलत असर
OpenAI ने हाल ही में स्वीकार किया कि ChatGPT की पिछली अपडेट के कारण कुछ यूजर्स की मानसिक स्थिति पर गलत असर पड़ा. अब कंपनी ने सिस्टम में बदलाव किए हैं ताकि कोई भी यूज़र अगर मानसिक तनाव, भ्रम या इमोशनल डिपेंडेंसी जैसी स्थितियों में हो तो ChatGPT उन्हें संवेदनशील और सुरक्षित तरीके से जवाब दे सके.

The Independent में प्रकाशित एक रिपोर्ट के मुताबिक ChatGPT के जवाब लोगों को मेनिया, सायकोसिस और यहां तक कि मौत की सोच तक ले जा रहे थे. इस रिपोर्ट में साफ कहा गया है कि मेंटल डिप्रेशन के दौरान चैटबॉट से सलाह लेना खतरनाक साबित हो सकता है क्योंकि इसके जवाब कई बार खतरनाक हो सकते हैं.

OpenAI ने कहा, हम हमेशा सही नहीं होते
OpenAI ने अपने एक ब्लॉग में ये माना कि, "हम हर बार सही जवाब नहीं देते." कंपनी ने बताया कि इस साल की शुरुआत में जो अपडेट दी गई थी, उसने GPT-4o मॉडल को बहुत ज्यादा 'सहमत' और ' सिर्फ अच्छा सुनने वाला' बना दिया था, जिसकी वजह से वह ऐसे जवाब देने लगा जो सही होने की बजाय सिर्फ अच्छे लगते थे. अब उस अपडेट को वापस लिया गया है.

लंबी बातचीत करने पर अब मिलेंगे 'ब्रेक' के सुझाव
OpenAI ने बताया कि अब अगर कोई यूजर ChatGPT से बहुत लंबे समय तक बात करता है, तो उसे सॉफ्ट रिमाइंडर मिलेगा. इसके अलावा, कंपनी ने बताया कि उन्होंने 30 से ज्यादा देशों के 90 से अधिक डॉक्टरों के साथ मिलकर ऐसा सिस्टम तैयार किया है जो यूजर्स की बातों को हर पहलू पर समझ सके.

अब ChatGPT नहीं देगा आपके लिए फैसले
OpenAI ने यह भी साफ किया कि ChatGPT अब ऐसे निजी सवालों का सीधा जवाब नहीं देगा जैसे 'क्या मुझे अपने बॉयफ्रेंड से ब्रेकअप कर लेना चाहिए इसके बजाय, वह आपसे सवाल पूछेगा, फायदे-नुकसान बताएगा और आपको खुद फैसला लेने में मदद करेगा. कंपनी अब ऐसे टूल्स पर काम कर रही है जो मेंट स्ट्रेस को पहचान सकें और जरूरत पड़ने पर हेल्थ रिसोर्सेज की ओर यूजर्स को भेज सकें.

Read more!

RECOMMENDED