एक 60 साल के आदमी को ChatGPT से अपना डाइट प्लान लेना बहुत भारी पड़ गया, जिसने उसे अस्पताल पहुंचा दिया। न्यू यॉर्क पोस्ट के अनुसार, इस व्यक्ति की पहचान तो उजागर नहीं की गई है, लेकिन उसको AI चैटबॉट से अपनी डाइट से सोडियम क्लोराइड हटाने का तरीका पूछने के बाद गंभीर मानसिक लक्षणों के साथ अस्पताल में भर्ती कराया गया था। डॉक्टरों ने बताया कि इस व्यक्ति को पहले कभी कोई मानसिक या गंभीर शारीरिक बीमारी नहीं थी। लेकिन अस्पताल में भर्ती होने के पहले 24 घंटों के भीतर, उसमें शक की भावना (पैरानॉयड) काफी बढ़ गई और उसे सुनाई देने और दिखाई देने वाले झूठे अनुभव (हैलुसिनेशन) होने लगे। इसके साथ ही उसे बहुत ज्यादा प्यास लगने लगी और शरीर का संतुलन बिगड़ गया।
मामला तब शुरू हुआ, जब इस व्यक्ति ने टेबल सॉल्ट (साधारण खाने का नमक) के नुकसान के बारे में पढ़ा। उसने ChatGPT से सलाह ली, और उसे बताया गया कि नमक की जगह सोडियम ब्रोमाइड का इस्तेमाल किया जा सकता है। सोडियम ब्रोमाइड दिखने में खाने के नमक जैसा होता है, लेकिन असल में यह एक अलग रासायनिक पदार्थ है। इसे कभी-कभी दवाइयों में इस्तेमाल किया जाता है, लेकिन ज्यादातर यह औद्योगिक कामों और सफाई के लिए इस्तेमाल होता है। ज्यादा मात्रा में इसका सेवन मानसिक और त्वचा से जुड़ी गंभीर समस्याएं पैदा कर सकता है।
अमेरिकन कॉलेज ऑफ फिजिशियंस जर्नल में छपे केस रिपोर्ट के मुताबिक, यह व्यक्ति जिसने कॉलेज में न्यूट्रिशन पढ़ा था, एक प्रयोग कर रहा था। उसने अपने खाने से सोडियम क्लोराइड (खाने का नमक) पूरी तरह हटा दिया और उसकी जगह ऑनलाइन खरीदा हुआ सोडियम ब्रोमाइड लेने लगा।
करीब तीन महीने तक यह डाइट अपनाने के बाद उसे अस्पताल में भर्ती करना पड़ा। उसने डॉक्टरों को बताया कि वह खुद अपने पीने के पानी को भी पतला करता था और कई तरह के सख्त खान-पान नियमों का पालन करता था। उसे बहुत प्यास लगती थी, लेकिन जब पानी दिया जाता तो वह शक करता था।
अस्पताल में आने के 24 घंटे के अंदर ही उसकी मानसिक स्थिति और बिगड़ गई। उसे सुनाई और दिखाई देने वाली झूठी चीजें महसूस होने लगीं और वह हर चीज पर शक करने लगा।
डॉक्टरों ने उसका इलाज फ्लूइड्स, इलेक्ट्रोलाइट्स और एंटीसाइकोटिक दवाओं से किया। लेकिन हालत इतनी बिगड़ गई कि उसे मानसिक स्वास्थ्य विभाग में भी भर्ती करना पड़ा, क्योंकि उसने अस्पताल से भागने की कोशिश की थी। करीब तीन हफ्ते इलाज के बाद उसकी हालत सुधरी और उसे छुट्टी दे दी गई।
इस केस के बारे में रिपोर्ट में चेतावनी दी गई कि ChatGPT और दूसरे AI सिस्टम वैज्ञानिक गलतियां कर सकते हैं, परिणामों पर गहराई से चर्चा करने की क्षमता नहीं रखते और कभी-कभी गलत जानकारी फैलाने का कारण बन सकते हैं।
OpenAI, जो ChatGPT का डेवलपर है, ने भी अपनी शर्तों में साफ लिखा है कि चैटबॉट का आउटपुट हमेशा सही हो यह जरूरी नहीं है। इसे एकमात्र सच मानकर या पेशेवर सलाह की जगह इस्तेमाल नहीं करना चाहिए। साथ ही, यह किसी भी बीमारी के निदान या इलाज के लिए नहीं बनाया गया है।