हैदराबाद : यह दावा किया जा रहा है कि जेनेरेटिव आर्टिफिशिय इंटेलिजेंस स्वास्थ्य सेवा वितरण और अनुसंधान के क्षेत्र में क्रांति ला देगा, क्योंकि इसके जरिए डेटा, टेक्स्ट और वीडियो की प्रोसेसिंग बहुत फास्ट होगी.
यह भी भरोसा जताया जा रहा है कि एआई रिमोट एरिया में बैठे मरीजों की देखभाल बेहतर ढंग से कर सकता है. अनुसंधान और निदान दोनों की बेहतर होंगे. लेकिन इन दावों को आप सटीकता के साथ स्वीकार कर लें, ऐसा भी नहीं है. आपको कहीं न कहीं पर इसके साथ संलग्न रिस्क फैक्टर को भी ध्यान में रखना होगा.
ब्रिटिश मेडिकल जर्नल में प्रकाशित एक अध्ययन कहता है- जो भी इसका उपयोग करेगा, उनके बारे में गलत सूचनाएं मिल सकती हैं. स्वास्थ्य देखभाल में लापरवाही की वजह से निर्णय भी गलत लिए जा सकते हैं. सार्वजनिक रूप से सुलभ आर्टिफिशियल इंटेलिजेंस में सुरक्षा उपाय को लेकर सवाल उठ सकते हैं. अध्ययन में यह भी कहा गया है कि सुरक्षा उपायों के बिना एआई का उपयोग भ्रमात्क सूचना उत्पन्न करने के लिए किया जा सकता है.
ऑस्ट्रेलिया, अमेरिका, ब्रिटेन और कनाडा के शीर्ष शोध संस्थानों के लेखकों ने सबसे प्रमुख मल्टी-मॉडल मॉडलों की क्षमताओं की समीक्षा की, उन्होंने डिस्इंफॉर्मेशन को लेकर विशेष अध्ययन किया.
उन्होंने अपने अध्ययन में पाया कि ओपन एआई के जीपीटी-4 (ChatGPT और Microsoft के Copilot के माध्यम से), Google के PaLM 2/जेमिनी प्रो (बार्ड) और मेटा के लामा 2 (हगिंगचैट के माध्यम से) में कमी है. यानी बहुत संभव है कि इनके माध्यम से स्वास्थ्य संबंधी दुष्प्रचार किया जा सकता है.
दूसरी ओर, एंथ्रोपिक के क्लाउड 2 ने स्वास्थ्य संबंधी दुष्प्रचार को लेकर मजबूत सुरक्षा उपाय दिखाए हैं. इसका मतलब यह हुआ है कि सेफगार्ड संभव है, लेकिन एआई डेवलपर्स ने प्राथमिकता ही नहीं दी. शोधकर्ताओं ने दो सरल संकेतों पर काम किया. पहला कि क्या सनस्क्रीन से कैंसर हो सकता है. और दूसरा कि क्या क्षारीय आहार (अल्केलाइन डाइट) कैंसर का इलाज कर सकता है.
इन दोनों ही सवालों पर एआई मॉडल ने रियलिस्टिक सी दिखने वाले जवाब दिए, लेकिन ये सभी झूठी सामग्री निकली. शोधकर्ताओं ने दावा किया कि कुछ मॉडल दूसरों की तुलना में बेहतर थे. पेपर कहता है कि क्लॉड 2 (Poe के माध्यम से) ने दोनों में प्रस्तुत 130 संकेतों को अस्वीकार कर दिया. इसके विपरीत, GPT-4 (ChatGPT के माध्यम से), PaLM 2/जेमिनी प्रो (बार्ड के माध्यम से), और लामा 2 (हगिंगचैट के माध्यम से) ने लगातार स्वास्थ्य संबंधी दुष्प्रचार वाले ब्लॉग तैयार किए. सितंबर 2023 के मूल्यांकन में, एलएलएम ने 113 यूनिक कैंसर डिस्इंफॉर्मेशन ब्लॉग्स को जेनरेट किया.
एक अन्य शोध पत्र में, शोधकर्ता इस बात पर जोर देते हैं कि समस्या एआई मतिभ्रम है. और इसके बारे में पता लगाना बहुत मुश्किल होता है. मतिभ्रम तब होता है जब एक एआई मॉडल गलत डेटा जेनरेट करता है. गलत डेटा जेनरेशन की वजह है- अपर्याप्त प्रशिक्षण डेटा और प्रशिक्षण के लिए उपयोग किए गए डेटा में मॉडल या पूर्वाग्रह द्वारा बनाई गई गलत धारणाएं.
ऑस्ट्रेलिया के फ़्लिंडर्स विश्वविद्यालय के अनुसंधानकर्ता ने कहा, 'एआई मतिभ्रम विशेष रूप से चिंताजनक है. क्योंकि एलएलएम से गलत या भ्रामक स्वास्थ्य जानकारी व्यक्तियों को प्राप्त हो सकती है. और आम लोगों के लिए जिनके पास इसे डिटेक्ट करने की क्षमता नहीं होती है, वे नुकसान में हो सकते हैं.'
एक संपादकीय में बीएमजे ने जोर देकर कहा है कि गलत जानकारी स्वास्थ्य संबंधी प्रभाव डालती हैं. गलत सूचना के विनाशकारी गुण इन विषयों में स्पष्ट हैं- चिकित्सा और सार्वजनिक स्वास्थ्य, जहां असत्यापित, गलत, भ्रामक और मनगढ़ंत है, वहां पर स्वास्थ्य संबंधी निर्णयों और व्यवहारों को गंभीर रूप से प्रभावित कर सकती हैं. इसे विश्व स्वास्थ्य संगठन और इन्फोडेमियोलॉजी ने भी स्वीकार किया है.
जनवरी 2024 में विश्व स्वास्थ्य संगठन ने स्वास्थ्य क्षेत्र में बड़े मल्टी-मॉडल मॉडल्स और नैतिकता पर व्यापक गाइडलाइन जारी की थी. इसमें उन्होंने पारदर्शी सूचना और डिजाइन डेवलपमेंट और एलएमएस के यूज के प्रबंधन को लेकर जोर दिया है. बीएमजे इस बात पर भी जोर देता है कि इसके प्रसार को कम करने के लिए सख्त नियम महत्वपूर्ण हैं ताकि दुष्प्रचार को रोका जा सके. साथ ही ये डेवलपर्स को भी जिम्मेदार ठहरा सके. उनका कहना है कि हर हाल में पारदर्शी व्यवस्था को बढ़ावा देना चाहिए, तकनीकी सुरक्षा उपाय मजबूत होने चाहिए और संचार नीतियां स्पष्ट होनी चाहिए.
ये भी पढ़ें : देश में लगातार बढ़ रही AI की डिमांड, सैमसंग के CEO जेएच हान बोले- भारत अगला बड़ा केंद्र