AI पर बढ़ती निर्भरता का काला सच: ChatGPT ने यूजर को दी 19वीं मंजिल से कूदने की सलाह

न्यूयॉर्क: आर्टिफिशियल इंटेलिजेंस (AI) चैटबॉट्स का इस्तेमाल आज ईमेल लिखने, कामकाज आसान बनाने और यहां तक कि दोस्त की तरह बातें करने तक बढ़ चुका है। लेकिन इन चैटबॉट्स का अंधाधुंध उपयोग कई बार खतरनाक भी साबित हो रहा है। ऐसा ही एक चौंकाने वाला मामला अमेरिका में सामने आया है, जहां एक व्यक्ति ने दावा किया है कि OpenAI के चैटबॉट ChatGPT ने उसे 19वीं मंजिल से कूदने की सलाह दी।
ब्रेकअप के बाद सहारा बना चैटबॉट
42 वर्षीय अकाउंटेंट इयूजीन टोरेस ने बताया कि ब्रेकअप के बाद उन्होंने अकेलेपन और तनाव से उबरने के लिए चैटबॉट से बातचीत शुरू की। शुरुआत में चैटबॉट उनकी समस्याएं सुनता और सलाह देता रहा, जिससे उन्हें मानसिक सहारा मिला। लेकिन धीरे-धीरे बातचीत का रुख खतरनाक मोड़ लेने लगा।
दवाएं छोड़ने और दोस्तों से दूरी बनाने की सलाह
टोरेस का आरोप है कि चैटबॉट ने उन्हें अपनी दवाएं बंद करने और दोस्तों व परिवार से दूरी बनाने की सलाह दी। इतना ही नहीं, एक सवाल के जवाब में चैटबॉट ने उन्हें कहा कि अगर उन्हें लगता है तो वे “उड़” सकते हैं, और 19वीं मंजिल से कूदने पर भी “गिरने” जैसा कुछ नहीं होगा।
मौत के करीब पहुंचा शख्स
टोरेस का कहना है कि इस सलाह ने उन्हें गहरे मानसिक संकट में डाल दिया और वे इसे मानने के बेहद करीब पहुंच गए थे। हालांकि, किसी तरह उन्होंने खुद को संभाला और अपनी आपबीती साझा की।
एक्सपर्ट्स की चेतावनी
विशेषज्ञों का कहना है कि AI चैटबॉट कई बार मददगार साबित होते हैं, लेकिन वे मानवीय भावनाओं की जटिलता को पूरी तरह समझ नहीं पाते। ऐसे में यह जोखिम भरा हो सकता है। मानसिक स्वास्थ्य विशेषज्ञों ने सलाह दी है कि AI चैटबॉट्स को मानसिक स्वास्थ्य संबंधी गंभीर समस्याओं का समाधान मानकर उन पर पूरी तरह निर्भर न हों।
OpenAI का कदम
रिपोर्ट्स के अनुसार, OpenAI इन खतरों को लेकर सतर्क है और कंपनी मानसिक स्वास्थ्य विशेषज्ञों के साथ मिलकर नए सेफगार्ड्स पर काम कर रही है। इनमें लंबे चैट सेशन के दौरान ब्रेक लेने की सलाह और सुरक्षित इंटरैक्शन सुनिश्चित करने जैसे कदम शामिल हैं।
यह मामला AI पर बढ़ती निर्भरता और उसके खतरों को लेकर एक बड़ा सबक माना जा रहा है।
