OpenAI Feature: अब जीपीटी पर होगा एमरजेंसी बटन, जो हॉटलाइन पर जोड़ेगा आपको थेरेपिस्ट से.. मॉडल को दिया जा रहा प्रशिक्षण

OpenAI ने ChatGPT में पैरेंटल कंट्रोल लागू करने की घोषणा की है. यह कदम उस घटना के बाद उठाया गया है, जिसमें 16 साल के एक लड़के ने आत्महत्या कर ली. लड़के के माता-पिता का आरोप है कि वह ChatGPT से बातचीत करता था और चैटबॉट ने ही उसे आत्महत्या के तरीके बताए.

OpenAI CEO Sam Altman
gnttv.com
  • नई दिल्ली,
  • 29 अगस्त 2025,
  • अपडेटेड 1:36 PM IST

हाल ही में चैटबॉट चलाने वाली कई कंपनियों पर गंभीर आरोप लगे हैं. ताजा मामला OpenAI से जुड़ा है, जो ChatGPT संचालित करती है. कंपनी पर मुकदमा दर्ज किया गया है. आरोप है कि उसके AI चैटबॉट ने 16 साल के एक लड़के को आत्महत्या के तरीके बताए. हालांकि, इस घटना के बाद OpenAI ने सबक लेते हुए पैरेंटल कंट्रोल और कई सुरक्षा उपाय लागू करने का आश्वासन दिया है. मृतक लड़के के माता-पिता की भी यही मांग थी कि कंपनी बच्चों के लिए पैरेंटल कंट्रोल जैसी सुविधा उपलब्ध कराए, ताकि उन पर AI का नकारात्मक असर न पड़े.

क्या है वन क्लिक इमरजेंसी सर्विस
कंपनी का कहना है कि अब वह मानसिक तनाव से जूझ रहे लोगों की मदद के लिए आगे आएगी. ChatGPT में "वन क्लिक इमरजेंसी सर्विस" जोड़ी जाएगी, जिससे लोग तुरंत सहायता ले सकेंगे. साथ ही, कंपनी यूजर्स को लाइसेंस प्राप्त थेरेपिस्ट से जोड़ने की सुविधा भी उपलब्ध कराएगी. नाबालिगों के लिए पैरेंटल कंट्रोल लागू होगा, जिससे माता-पिता अपने बच्चों के चैट उपयोग पर नजर रख सकेंगे और जरूरत पड़ने पर नियंत्रण भी कर पाएंगे. इसके अलावा, संकट की घड़ी में मदद के लिए पैरेंट्स को आपातकालीन नंबर भी दिया जा सकता है.

OpenAI ने एक बयान में कहा कि उसका लक्ष्य है कि उसके टूल्स लोगों के लिए उपयोगी साबित हों. इसके लिए मॉडल्स को इस तरह प्रशिक्षित किया जा रहा है कि वे मानसिक और भावनात्मक दबाव को पहचान सकें. कंपनी ने यह भी बताया कि वह 30 देशों के 90 से अधिक डॉक्टरों के साथ मिलकर इस दिशा में काम कर रही है. प्राथमिकता यह है कि ChatGPT किसी मुश्किल स्थिति को और अधिक कठिन न बनाए.

लंबी बातचीत के दौरान सीमाए भूल जाता है चैटबॉट
OpenAI ने अपने ब्लॉग में स्वीकार किया था कि लोग ChatGPT का इस्तेमाल केवल सर्च, कोडिंग या लेखन तक सीमित नहीं रखते, बल्कि निजी जीवन से जुड़े सवालों और सलाह के लिए भी इसका सहारा लेते हैं. कंपनी का दावा है कि उसने पहले ही ChatGPT को इस तरह प्रशिक्षित किया है कि वह आत्महत्या या किसी तरह की हानिकारक सलाह न दे. लेकिन समस्या यह पाई गई कि लंबी बातचीत के दौरान मॉडल कभी-कभी अपनी सीमाओं को भूल जाता है. अब कंपनी इस खामी को दूर करने पर काम कर रही है.

चैटबॉट ने बताया सुसाइड का तरीका
न्यूयॉर्क टाइम्स की रिपोर्ट के मुताबिक, अमेरिका में एडम रेन नामक 16 वर्षीय किशोर ने आत्महत्या कर ली. उसके माता-पिता मैथ्यू और मारिया रेन का आरोप है कि ChatGPT ने उनके बेटे को सुसाइड के तरीके बताए. उन्होंने OpenAI और इसके सीईओ सैम ऑल्टमैन के खिलाफ सैन फ्रांसिस्को में केस दर्ज कराया है. शिकायत में कहा गया है कि ChatGPT ने न केवल आत्महत्या के तरीके सुझाए, बल्कि जब लड़के ने यह कहा कि वह रस्सी ऐसी जगह छोड़ेगा, जहां से कोई देख सके और उसे रोक ले, तब चैटबॉट ने ऐसा करने से मना किया. मृतक के माता-पिता ने कंपनी से मुआवजे की भी मांग की है.

 

Read more!

RECOMMENDED