ChatGPT के डाइट प्लान ने 60 साल के आदमी को पहुंचा दिया अस्पताल, AI की सलह पर नमक की जगह खाया सफाई वाला केमिकल

मामला तब शुरू हुआ, जब इस व्यक्ति ने टेबल सॉल्ट (साधारण खाने का नमक) के नुकसान के बारे में पढ़ा। उसने ChatGPT से सलाह ली, और उसे बताया गया कि नमक की जगह सोडियम ब्रोमाइड का इस्तेमाल किया जा सकता है। सोडियम ब्रोमाइड दिखने में खाने के नमक जैसा होता है, लेकिन असल में यह एक अलग रासायनिक पदार्थ है

अपडेटेड Aug 12, 2025 पर 2:47 PM
Story continues below Advertisement
ChatGPT के डाइट प्लान ने 60 साल के आदमी को पहुंचा दिया अस्पताल (PHOTO-AI)

एक 60 साल के आदमी को ChatGPT से अपना डाइट प्लान लेना बहुत भारी पड़ गया, जिसने उसे अस्पताल पहुंचा दिया। न्यू यॉर्क पोस्ट के अनुसार, इस व्यक्ति की पहचान तो उजागर नहीं की गई है, लेकिन उसको AI चैटबॉट से अपनी डाइट से सोडियम क्लोराइड हटाने का तरीका पूछने के बाद गंभीर मानसिक लक्षणों के साथ अस्पताल में भर्ती कराया गया था। डॉक्टरों ने बताया कि इस व्यक्ति को पहले कभी कोई मानसिक या गंभीर शारीरिक बीमारी नहीं थी। लेकिन अस्पताल में भर्ती होने के पहले 24 घंटों के भीतर, उसमें शक की भावना (पैरानॉयड) काफी बढ़ गई और उसे सुनाई देने और दिखाई देने वाले झूठे अनुभव (हैलुसिनेशन) होने लगे। इसके साथ ही उसे बहुत ज्यादा प्यास लगने लगी और शरीर का संतुलन बिगड़ गया।

मामला तब शुरू हुआ, जब इस व्यक्ति ने टेबल सॉल्ट (साधारण खाने का नमक) के नुकसान के बारे में पढ़ा। उसने ChatGPT से सलाह ली, और उसे बताया गया कि नमक की जगह सोडियम ब्रोमाइड का इस्तेमाल किया जा सकता है। सोडियम ब्रोमाइड दिखने में खाने के नमक जैसा होता है, लेकिन असल में यह एक अलग रासायनिक पदार्थ है। इसे कभी-कभी दवाइयों में इस्तेमाल किया जाता है, लेकिन ज्यादातर यह औद्योगिक कामों और सफाई के लिए इस्तेमाल होता है। ज्यादा मात्रा में इसका सेवन मानसिक और त्वचा से जुड़ी गंभीर समस्याएं पैदा कर सकता है।

अमेरिकन कॉलेज ऑफ फिजिशियंस जर्नल में छपे केस रिपोर्ट के मुताबिक, यह व्यक्ति जिसने कॉलेज में न्यूट्रिशन पढ़ा था, एक प्रयोग कर रहा था। उसने अपने खाने से सोडियम क्लोराइड (खाने का नमक) पूरी तरह हटा दिया और उसकी जगह ऑनलाइन खरीदा हुआ सोडियम ब्रोमाइड लेने लगा।


करीब तीन महीने तक यह डाइट अपनाने के बाद उसे अस्पताल में भर्ती करना पड़ा। उसने डॉक्टरों को बताया कि वह खुद अपने पीने के पानी को भी पतला करता था और कई तरह के सख्त खान-पान नियमों का पालन करता था। उसे बहुत प्यास लगती थी, लेकिन जब पानी दिया जाता तो वह शक करता था।

अस्पताल में आने के 24 घंटे के अंदर ही उसकी मानसिक स्थिति और बिगड़ गई। उसे सुनाई और दिखाई देने वाली झूठी चीजें महसूस होने लगीं और वह हर चीज पर शक करने लगा।

डॉक्टरों ने उसका इलाज फ्लूइड्स, इलेक्ट्रोलाइट्स और एंटीसाइकोटिक दवाओं से किया। लेकिन हालत इतनी बिगड़ गई कि उसे मानसिक स्वास्थ्य विभाग में भी भर्ती करना पड़ा, क्योंकि उसने अस्पताल से भागने की कोशिश की थी। करीब तीन हफ्ते इलाज के बाद उसकी हालत सुधरी और उसे छुट्टी दे दी गई।

इस केस के बारे में रिपोर्ट में चेतावनी दी गई कि ChatGPT और दूसरे AI सिस्टम वैज्ञानिक गलतियां कर सकते हैं, परिणामों पर गहराई से चर्चा करने की क्षमता नहीं रखते और कभी-कभी गलत जानकारी फैलाने का कारण बन सकते हैं।

OpenAI, जो ChatGPT का डेवलपर है, ने भी अपनी शर्तों में साफ लिखा है कि चैटबॉट का आउटपुट हमेशा सही हो यह जरूरी नहीं है। इसे एकमात्र सच मानकर या पेशेवर सलाह की जगह इस्तेमाल नहीं करना चाहिए। साथ ही, यह किसी भी बीमारी के निदान या इलाज के लिए नहीं बनाया गया है।

America में बड़ा हादसा, स्टील प्लांट में हुआ जोरदार विस्फोट

MoneyControl News

MoneyControl News

First Published: Aug 12, 2025 2:30 PM

हिंदी में शेयर बाजार स्टॉक मार्केट न्यूज़,  बिजनेस न्यूज़,  पर्सनल फाइनेंस और अन्य देश से जुड़ी खबरें सबसे पहले मनीकंट्रोल हिंदी पर पढ़ें. डेली मार्केट अपडेट के लिए Moneycontrol App  डाउनलोड करें।