ChatGPT Diet Plan: एक अजीब और चौंकाने वाला मामला सामने आया है। दरअसल एक युवक को ChatGPT द्वारा सुझाए गए एक डाइट प्लान को फॉलो करने के बाद अस्पताल में भर्ती कराना पड़ा। डॉक्टरों का कहना है कि यह शायद आर्टिफिशियल इंटेलिजेंस (AI) से जुड़ा ब्रोमाइड पॉइजनिंग का पहला मामला है। आइए आपको बताते हैं आखिर क्या है पूरा मामला?
युवक ने ChatGPT से नमक कम करने की मांगी थी सलाह
वाशिंगटन विश्वविद्यालय के डॉक्टरों द्वारा 'एनल्स ऑफ इंटरनल मेडिसिन: क्लिनिकल केसेस' में प्रकाशित एक रिपोर्ट के अनुसार, एक व्यक्ति ने अपनी डाइट से नमक (सोडियम क्लोराइड) कम करने के लिए चैटजीपीटी से सलाह ली थी। चैटजीपीटी ने कथित तौर पर उसे क्लोराइड की जगह सोडियम ब्रोमाइड लेने का सुझाव दिया। व्यक्ति ने तीन महीने तक इसी सलाह का पालन किया, जिसके बाद उसकी हालत बिगड़ने लगी। उसे पैरानोइया और मतिभ्रम जैसे गंभीर लक्षण दिखने लगे और अंततः उसे अस्पताल में भर्ती कराना पड़ा।
टेस्टिंग के बाद डॉक्टरों ने ChatGPT को बताया दोषी
अस्पताल में भर्ती होने के बाद जब मरीज बातचीत करने की स्थिति में आया, तो उसने बताया कि उसकी बीमारी का कारण चैटजीपीटी है। इस पर डॉक्टरों ने खुद चैटजीपीटी से वही सवाल पूछा और एआई ने दोबारा ब्रोमाइड को एक विकल्प के रूप में बताया, लेकिन यह नहीं समझाया कि यह मानव उपभोग के लिए असुरक्षित है। डॉक्टरों का कहना है कि यह दर्शाता है कि एआई बिना संदर्भ को समझे जानकारी दे सकता है, जो बेहद खतरनाक है। हालांकि इस केस में अच्छी बात ये रही कि करीब तीन सप्ताह तक इलाज के बाद व्यक्ति पूरी तरह से ठीक हो गया।
इस मामले के बाद डॉक्टरों ने एक गंभीर चेतावनी जारी की है। उनका कहना है कि एआई उपकरण वैज्ञानिक जानकारी को अधिक सुलभ बना सकते हैं, वे किसी भी स्थिति में पेशेवर चिकित्सा सलाह की जगह नहीं ले सकते। डॉक्टरों ने सलाह दी है कि स्वास्थ्य संबंधी मामलों में हमेशा किसी एक्सपर्ट से ही राय लेनी चाहिए, क्योंकि एआई कभी-कभी गलत मार्गदर्शन दे सकता है जो जानलेवा हो सकता है। वैसे इस केस से इस बात का अंदाजा लगाया जा सकता है कि एआई से मिली सलाह कितनी खतरनाक हो सकती है।