AI Chat Bot : आजकल के बदलते टेक्नोलॉजी के युग में इंसान रोजमर्रा की जिंदगी में भी तकनीक का इस्तेमाल करने लगा है। हर व्यक्ति अपनी छोटी बड़ी समस्या के लिए तकनीक का इस्तेमाल करता है । यहां तक की अपने स्वास्थ्य संबंधी समस्याओं के कई समाधान एआई चैट बॉट के जरिए करने लगा है । जो कि उसके लिए ना कि सिर्फ खतरनाक है बल्कि सेहत के साथ खिलवाड़ भी है। हाल ही में हुए एक अध्ययन के मुताबिक शोधकर्ताओं ने चैट बॉट से थेरेपी लेने वालों को चेतावनी दी है, जिसमे की खास कर दिमाग और अवसाद से संबंधित समस्याओं के लिए आमजन को जागरूक किया है। वैज्ञानिकों का कहना है कि मानसिक स्वास्थ्य समर्थन के लिए आर्टिफिशियल इंटेलिजेंस चैट बॉक्स का उपयोग खतरनाक साबित हो सकता है।
भारत में AI Chat Bot का सबसे ज्यादा उपयोग :
भारत में चैट बॉट आधारित मानसिक स्वास्थ्य एप्स का बाजार तेजी से उछाल मार रहा है । लोग अपनी स्वास्थ्य सम्बंधित समस्याओं का हल एआई से पूछने लगे है । आपको बता दें चैट बॉट का सबसे बड़ा यूजर बेस भारतीय है। अमेरिका के शोधकर्ताओं ने बताया कि चैट जीपीटी जैसे एआई चैट बॉट अनेकों भारतीयों का गुप्त साथी बनता जा रहा है । कुछ यूजर्स जिन बातों को अपने किसी विशेष के साथ साझा नहीं कर सकते हैं । वह अपनी बातें बेझिझक एआई चैट बॉट से बताते हैं। यह चैट बॉट उनकी परेशानियों को सुनने के बाद उनकी समस्याओं का हल भी निकालते हैं। लेकिन शोधकर्ताओं ने बताया है कि एआई चैट बॉट अभी इंसानी थैरेपिस्ट का विकल्प बनने के लायक नहीं है।
एआई ने छोटी सी बीमारी को गंभीर बना कर पहुचाया अस्पताल !
हाल ही में मुंबई के एक 14 साल के बच्चे ने अपने पेट में दर्द की शिकायत की जिसके बाद उसे मुंबई के अपोलो हॉस्पिटल के इमरजेंसी में भर्ती कराया गया। जहां पर कई मेडिकल जांच होने के बाद बच्चे को कोई फिजिकल बीमारी नहीं मिली। इसके पश्चात बच्चे की मां ने बताया कि उसने बच्चे के स्वास्थ्य संबंधित परेशानियों को लेकर पहले एआई चैट बॉट से सलाह ली थी । जिसमें एआई ने उसे गैस्ट्रो संबंधित समस्या बता कर अस्पताल में तुरंत भर्ती करने की सलाह दी थी। इसके बाद डॉक्टर के पास जाने के बाद कुछ एक्सपर्ट ने उसे देखा तो पता चला कि बच्चे को पेट दर्द नहीं बल्कि एक पैनिक अटैक यानी की गंभीर एंग्जायटी थी । स्कूल में लगातार कुछ दिनो से सीनियर्स की बुलिंग करने के कारण उसे मानसिक दबाव हो रहा था। यह मानसिक दबाव उसके शारीरिक स्वास्थ्य में परेशानी की वजह बन गया।
मानसिक स्वास्थ्य में भी दे रहा है गलत सलाह:
इसके साथ ही कई एक्सपर्ट यह भी बताते हैं कि एआई चैट बॉट ने मरीजों को मानसिक स्वास्थ्य से संबंधित भी कई गलत सलाह दी। जिसके बाद उनकी हालत और ज्यादा बिगड़ गई। स्वास्थ्य सलाहकारों का कहना है कि AI Chat Bot आपकी बातें तो सुन सकता है। लेकिन वह आपको महसूस नहीं कर सकता और ना ही आपको देख सकता है। इसके लिए आपको किसी अच्छे डॉक्टर के पास जाना ही सुरक्षित होगा।
एक अन्य शोधकर्ता ने भी यह बताया की नए मॉडल पुराने मॉडल की तरह ही कार्य कर रहे हैं । एक यूजर के मुताबिक उसने चैट बॉट में अपनी नौकरी चले जाने की परेशानी बताई और उससे आत्महत्या के ख्याल से पूछा कि न्यूयॉर्क में ऊंचे पुल कौन-कौन से हैं। इस पर चैट बॉट ने उसे सहायता या राहत देने की बजाय ब्रुक्लिंन ब्रिज जैसे ऊचे पुलों की जानकारी दी।
एआई का उपयोग सीमित तरीके से करे:
आपको बता दें कि जो भी व्यक्ति एआई से सहायता प्राप्त करता है या करना चाहता है । उसके लिए यह जोखिम भरा भी हो सकता है। आजकल के समय में लगभग 50% लोग इस एप का उपयोग कर रहे हैं । यहां पर मानसिक स्वास्थ्य की समस्याओं से जूझ रहे लोगों के लिए कई जोखिम भरी सलाह सामने आई है । ऐसे में एआई संसाधनों की कमी वाले इलाकों के लिये एक सीमित विकल्प हो सकता है। लेकिन भरोसेमंद और सुरक्षित कभी नहीं हो सकता । एआई कभी भी एक इंसानी समझदारी या नैतिक जिम्मेदारी नहीं निभा सकता। वह भावनाओं और इंसानियत से बिल्कुल परे है। ऐसे में कुछ लोगों के लिए खतरा बन सकता है।
एआई कभी एक डॉक्टर की जगह नही ले सकता है:
एआई आधारित टूल आपको किसी भी तरह की जानकारी देने में मददगार हो सकता है। लेकिन यह एक बेहतर इलाज के लिए विकल्प कभी नहीं बन सकता है । यह डॉक्टर से थेरेपी के मुकाबले सस्ता,सहज और मुफ्त उपलब्ध है। लेकिन इंसानी थैरेपिस्ट जो संवेदनशीलता अनुभव कर सकता है, और समझ सकता है। वह एक मशीन कभी नहीं कर सकती है। इसलिए जरूरत है कि AI Chat Bot का एक सीमित इस्तेमाल किया जाए । शारीरिक और मानसिक स्वास्थ्य संबंधी गंभीर समस्याओं का केवल विशेषज्ञों की सलाह द्वारा ही इलाज किया जाए । फिलहाल एआई थैरेपिस्ट चैट बॉट मानव थैरेपिस्ट की जगह नहीं ले सकता है।
बबीता आर्या