
हाल ही में चैटबॉट चलाने वाली कई कंपनियों पर गंभीर आरोप लगे हैं. ताजा मामला OpenAI से जुड़ा है, जो ChatGPT संचालित करती है. कंपनी पर मुकदमा दर्ज किया गया है. आरोप है कि उसके AI चैटबॉट ने 16 साल के एक लड़के को आत्महत्या के तरीके बताए. हालांकि, इस घटना के बाद OpenAI ने सबक लेते हुए पैरेंटल कंट्रोल और कई सुरक्षा उपाय लागू करने का आश्वासन दिया है. मृतक लड़के के माता-पिता की भी यही मांग थी कि कंपनी बच्चों के लिए पैरेंटल कंट्रोल जैसी सुविधा उपलब्ध कराए, ताकि उन पर AI का नकारात्मक असर न पड़े.
क्या है वन क्लिक इमरजेंसी सर्विस
कंपनी का कहना है कि अब वह मानसिक तनाव से जूझ रहे लोगों की मदद के लिए आगे आएगी. ChatGPT में "वन क्लिक इमरजेंसी सर्विस" जोड़ी जाएगी, जिससे लोग तुरंत सहायता ले सकेंगे. साथ ही, कंपनी यूजर्स को लाइसेंस प्राप्त थेरेपिस्ट से जोड़ने की सुविधा भी उपलब्ध कराएगी. नाबालिगों के लिए पैरेंटल कंट्रोल लागू होगा, जिससे माता-पिता अपने बच्चों के चैट उपयोग पर नजर रख सकेंगे और जरूरत पड़ने पर नियंत्रण भी कर पाएंगे. इसके अलावा, संकट की घड़ी में मदद के लिए पैरेंट्स को आपातकालीन नंबर भी दिया जा सकता है.
OpenAI ने एक बयान में कहा कि उसका लक्ष्य है कि उसके टूल्स लोगों के लिए उपयोगी साबित हों. इसके लिए मॉडल्स को इस तरह प्रशिक्षित किया जा रहा है कि वे मानसिक और भावनात्मक दबाव को पहचान सकें. कंपनी ने यह भी बताया कि वह 30 देशों के 90 से अधिक डॉक्टरों के साथ मिलकर इस दिशा में काम कर रही है. प्राथमिकता यह है कि ChatGPT किसी मुश्किल स्थिति को और अधिक कठिन न बनाए.
लंबी बातचीत के दौरान सीमाए भूल जाता है चैटबॉट
OpenAI ने अपने ब्लॉग में स्वीकार किया था कि लोग ChatGPT का इस्तेमाल केवल सर्च, कोडिंग या लेखन तक सीमित नहीं रखते, बल्कि निजी जीवन से जुड़े सवालों और सलाह के लिए भी इसका सहारा लेते हैं. कंपनी का दावा है कि उसने पहले ही ChatGPT को इस तरह प्रशिक्षित किया है कि वह आत्महत्या या किसी तरह की हानिकारक सलाह न दे. लेकिन समस्या यह पाई गई कि लंबी बातचीत के दौरान मॉडल कभी-कभी अपनी सीमाओं को भूल जाता है. अब कंपनी इस खामी को दूर करने पर काम कर रही है.
चैटबॉट ने बताया सुसाइड का तरीका
न्यूयॉर्क टाइम्स की रिपोर्ट के मुताबिक, अमेरिका में एडम रेन नामक 16 वर्षीय किशोर ने आत्महत्या कर ली. उसके माता-पिता मैथ्यू और मारिया रेन का आरोप है कि ChatGPT ने उनके बेटे को सुसाइड के तरीके बताए. उन्होंने OpenAI और इसके सीईओ सैम ऑल्टमैन के खिलाफ सैन फ्रांसिस्को में केस दर्ज कराया है. शिकायत में कहा गया है कि ChatGPT ने न केवल आत्महत्या के तरीके सुझाए, बल्कि जब लड़के ने यह कहा कि वह रस्सी ऐसी जगह छोड़ेगा, जहां से कोई देख सके और उसे रोक ले, तब चैटबॉट ने ऐसा करने से मना किया. मृतक के माता-पिता ने कंपनी से मुआवजे की भी मांग की है.