OpenAI ChatGPT
OpenAI ChatGPT अमेरिका के न्यूयॉर्क राज्य में चैटजीपीटी से डाइट बनवाना एक 60 साल के आदमी को भारी पड़ गया और उसे अस्पताल में भर्ती करवाना पड़ा. डॉक्टर्स के अनुसार, यह डाइट फॉलो करके इस व्यक्ति को हाइपोनाट्रेमिया नाम की परेशानी हो गई थी. अमेरिका कॉलेज ऑफ फिजिशियन्स की जर्नल में छपे इस हालिया मामले ने डाइट प्लैनिंग में एआई के इस्तेमाल पर कई सवाल उठाए हैं. आइए जानते हैं क्या है पूरा मामला.
क्या है पूरा मामला
रिपोर्ट के अनुसार, चैटजीपीटी की दी हुई डाइट से उस आदमी के शरीर में सोडियम की कमी हो गई थी, जो एक बेहद महत्वपूर्ण न्यूट्रिएंट है. ऐसा इसलिए हुआ क्योंकि उस व्यक्ति ने चैटजीपीटी से पूछा कि अपनी डाइट से सोडियम क्लोराइड (यानी नमक) को कैसे खत्म किया जा सकता है. एआई मॉडल ने कहा कि सोडियम ब्रोमाइड को इसके एक विकल्प के तौर पर इस्तेमाल कर सोडियम क्लोराइड से छुटकारा पाया जा सकता है.
सोडियम ब्रोमाइड एक कंपाउंड है जिसका इस्तेमाल 20वीं सदी में दवाओं में किया जाता था लेकिन बाद में पता चला कि इसे ज्यादा मात्रा में लेना जानलेवा साबित हो सकता है. यह बात उस शख्स को नहीं पता थी, सो उसने चैटजीपीटी का मश्वरा मानकर सोडियम ब्रोमाइड ऑनलाइन खरीद लिया. उसने तीन महीने तक अपने खाने में इसका इस्तेमाल किया.
तबियत बिगड़ी, हॉस्पिटल पहुंचा
उस आदमी को इससे पहले कोई दिमागी बीमारी नहीं थी लेकिन सोडियम ब्रोमाइड खाने के बाद उसे धीरे-धीरे मतिभ्रम, घबराहट और जरूरत से ज्यादा प्यास महसूस होने लगी. अस्पताल में भर्ती होने पर उसकी भ्रम की स्थिति बढ़ने लगी और शख्स ने पानी पीने से मना कर दिया. जांच के बाद पता चला कि इंसान को ब्रोमाइड ओवरडोज़ हो गया है. अस्पताल में उपचार का मुख्य उद्देश्य इंसान के शरीर में पानी और इलेक्ट्रोलाइट की कमी खत्म करना था. तीन हफ़्तों के दौरान उस व्यक्ति की हालत में धीरे-धीरे सुधार हुआ और सोडियम और क्लोराइड का स्तर सामान्य होने पर उसे छुट्टी दे दी गई.
क्या जानलेवा हो सकता है एआई?
जर्नल में प्रकाशित केस स्टडी के लेखकों का कहना है कि एआई से स्वास्थ्य संबंधी सलाह लेना खतरनाक है और इससे जुड़ा रिस्क लगातार बढ़ता जा रहा है. रिपोर्ट में चेतावनी दी गई है, "यह ध्यान रखना ज़रूरी है कि चैटजीपीटी और अन्य एआई सिस्टम वैज्ञानिक अशुद्धियां पैदा कर सकती हैं. वे परिणामों पर गंभीरता से चर्चा नहीं कर सकतीं और अंततः गलत सूचना के प्रसार को बढ़ावा दे सकती हैं."
चैटजीपीटी के डेवलपर, ओपनएआई ने अपनी उपयोग की शर्तों में स्पष्ट रूप से कहा है: "आपको हमारी सेवाओं से प्राप्त आउटपुट को सत्य या तथ्यात्मक जानकारी के एकमात्र स्रोत के रूप में, या पेशेवर सलाह के विकल्प के रूप में, भरोसा नहीं करना चाहिए." शर्तों में यह भी स्पष्ट किया गया है कि यह सेवा चिकित्सा स्थितियों के निदान या उपचार के लिए नहीं है.