प्रतिरूप फोटो
Social Media
ChatGPT और AI चैटबॉट से फिटनेस टिप्स या डाइट प्लान लेते हैं तो सावधान होने का समय आ गया है। एआई से ली गई स्वास्थ्य संबंधी सलाह जान को खतरे में भी डाल सकती है। दरअसल, चैटजीपीटी की सलाह ने एक शख्स को अस्पताल पहुंचा दिया है।
अगर आप भी चैटजीपीट पर जरूरत से ज्यादा भरोसा करते हैं तो संभल जाएं। ChatGPT और AI चैटबॉट से फिटनेस टिप्स या डाइट प्लान लेते हैं तो सावधान होने का समय आ गया है। एआई से ली गई स्वास्थ्य संबंधी सलाह जान को खतरे में भी डाल सकती है। दरअसल, चैटजीपीटी की सलाह ने एक शख्स को अस्पताल पहुंचा दिया है। एक रिपोर्ट के अनुसार, न्यूयॉर्क में एक 60 वर्षीय व्यक्ति को उस समय अस्पताल में भर्ती होना पड़ा जब उसने चैटजीपीटी द्वारा बताए गए भोजन से नमक कम करने के सख्त नियम का पालन किया।
बता दें कि, डॉक्टरों के अनुसार उस व्यक्ति ने कई हफ्तों तक अपने आहार में सोडियम की मात्रा अचानक लगभग शून्य कर दी, जिससे सोडियम का स्तर खतरनाक रूप से कम हो गया, जिसे हाइपोनेट्रेमिया कहा जाता है। उसके परिवार ने कहा कि उसने चिकित्सक से परामर्श किए बिना ही एआई जनरेटेड हेल्थ प्लान पर भरोसा किया।
हाल ही में अमेरिकन कॉलेज ऑफ फिजिशियन जर्नल में पल्बिश ये मामला, प्रोफेशनल निगरानी के बिना एआई जनरेटेड हेल्थ एडवाइज को फॉलो करने के जोखि को उजागर करता है। खासकर जब इसमें सोडियम जैसे जरूरी पोषक तत्व शामिल हों। राहत की ये है कि अस्तपाल में करीब तीन हफ्ते बिताने के बाद वह व्यक्ति ठीक हो गया। लेकिन इस मामले में चैटजीपीटी की विश्वसनीयता पर सवाल उठने लगे हैं।
अन्य न्यूज़