ETV Bharat / opinion

'एआई पर आंख मूंद कर भरोसा नहीं कर सकते' - Publically accessible AI

एआई की वजह से जितनी सुविधाएं हमें मिलती जा रहीं हैं, वह क्रांति तो जरूर ला सकता है, लेकिन इसके साथ ही खतरे भी बढ़ते जा रहे हैं. और सबसे अधिक खतरा मेडिकल क्षेत्र में है. ब्रिटिश मेडिकल जर्नल ने अपने एक लेख में दावा किया है कि अगर गलत डेटा का कलेक्शन हो गया, तो आपको लेने के देने पड़ जाएंगे.

AI
एआई
author img

By Toufiq Rashid

Published : Mar 26, 2024, 4:10 PM IST

हैदराबाद : यह दावा किया जा रहा है कि जेनेरेटिव आर्टिफिशिय इंटेलिजेंस स्वास्थ्य सेवा वितरण और अनुसंधान के क्षेत्र में क्रांति ला देगा, क्योंकि इसके जरिए डेटा, टेक्स्ट और वीडियो की प्रोसेसिंग बहुत फास्ट होगी.

यह भी भरोसा जताया जा रहा है कि एआई रिमोट एरिया में बैठे मरीजों की देखभाल बेहतर ढंग से कर सकता है. अनुसंधान और निदान दोनों की बेहतर होंगे. लेकिन इन दावों को आप सटीकता के साथ स्वीकार कर लें, ऐसा भी नहीं है. आपको कहीं न कहीं पर इसके साथ संलग्न रिस्क फैक्टर को भी ध्यान में रखना होगा.

ब्रिटिश मेडिकल जर्नल में प्रकाशित एक अध्ययन कहता है- जो भी इसका उपयोग करेगा, उनके बारे में गलत सूचनाएं मिल सकती हैं. स्वास्थ्य देखभाल में लापरवाही की वजह से निर्णय भी गलत लिए जा सकते हैं. सार्वजनिक रूप से सुलभ आर्टिफिशियल इंटेलिजेंस में सुरक्षा उपाय को लेकर सवाल उठ सकते हैं. अध्ययन में यह भी कहा गया है कि सुरक्षा उपायों के बिना एआई का उपयोग भ्रमात्क सूचना उत्पन्न करने के लिए किया जा सकता है.

ऑस्ट्रेलिया, अमेरिका, ब्रिटेन और कनाडा के शीर्ष शोध संस्थानों के लेखकों ने सबसे प्रमुख मल्टी-मॉडल मॉडलों की क्षमताओं की समीक्षा की, उन्होंने डिस्इंफॉर्मेशन को लेकर विशेष अध्ययन किया.

उन्होंने अपने अध्ययन में पाया कि ओपन एआई के जीपीटी-4 (ChatGPT और Microsoft के Copilot के माध्यम से), Google के PaLM 2/जेमिनी प्रो (बार्ड) और मेटा के लामा 2 (हगिंगचैट के माध्यम से) में कमी है. यानी बहुत संभव है कि इनके माध्यम से स्वास्थ्य संबंधी दुष्प्रचार किया जा सकता है.

दूसरी ओर, एंथ्रोपिक के क्लाउड 2 ने स्वास्थ्य संबंधी दुष्प्रचार को लेकर मजबूत सुरक्षा उपाय दिखाए हैं. इसका मतलब यह हुआ है कि सेफगार्ड संभव है, लेकिन एआई डेवलपर्स ने प्राथमिकता ही नहीं दी. शोधकर्ताओं ने दो सरल संकेतों पर काम किया. पहला कि क्या सनस्क्रीन से कैंसर हो सकता है. और दूसरा कि क्या क्षारीय आहार (अल्केलाइन डाइट) कैंसर का इलाज कर सकता है.

इन दोनों ही सवालों पर एआई मॉडल ने रियलिस्टिक सी दिखने वाले जवाब दिए, लेकिन ये सभी झूठी सामग्री निकली. शोधकर्ताओं ने दावा किया कि कुछ मॉडल दूसरों की तुलना में बेहतर थे. पेपर कहता है कि क्लॉड 2 (Poe के माध्यम से) ने दोनों में प्रस्तुत 130 संकेतों को अस्वीकार कर दिया. इसके विपरीत, GPT-4 (ChatGPT के माध्यम से), PaLM 2/जेमिनी प्रो (बार्ड के माध्यम से), और लामा 2 (हगिंगचैट के माध्यम से) ने लगातार स्वास्थ्य संबंधी दुष्प्रचार वाले ब्लॉग तैयार किए. सितंबर 2023 के मूल्यांकन में, एलएलएम ने 113 यूनिक कैंसर डिस्इंफॉर्मेशन ब्लॉग्स को जेनरेट किया.

एक अन्य शोध पत्र में, शोधकर्ता इस बात पर जोर देते हैं कि समस्या एआई मतिभ्रम है. और इसके बारे में पता लगाना बहुत मुश्किल होता है. मतिभ्रम तब होता है जब एक एआई मॉडल गलत डेटा जेनरेट करता है. गलत डेटा जेनरेशन की वजह है- अपर्याप्त प्रशिक्षण डेटा और प्रशिक्षण के लिए उपयोग किए गए डेटा में मॉडल या पूर्वाग्रह द्वारा बनाई गई गलत धारणाएं.

ऑस्ट्रेलिया के फ़्लिंडर्स विश्वविद्यालय के अनुसंधानकर्ता ने कहा, 'एआई मतिभ्रम विशेष रूप से चिंताजनक है. क्योंकि एलएलएम से गलत या भ्रामक स्वास्थ्य जानकारी व्यक्तियों को प्राप्त हो सकती है. और आम लोगों के लिए जिनके पास इसे डिटेक्ट करने की क्षमता नहीं होती है, वे नुकसान में हो सकते हैं.'

एक संपादकीय में बीएमजे ने जोर देकर कहा है कि गलत जानकारी स्वास्थ्य संबंधी प्रभाव डालती हैं. गलत सूचना के विनाशकारी गुण इन विषयों में स्पष्ट हैं- चिकित्सा और सार्वजनिक स्वास्थ्य, जहां असत्यापित, गलत, भ्रामक और मनगढ़ंत है, वहां पर स्वास्थ्य संबंधी निर्णयों और व्यवहारों को गंभीर रूप से प्रभावित कर सकती हैं. इसे विश्व स्वास्थ्य संगठन और इन्फोडेमियोलॉजी ने भी स्वीकार किया है.

जनवरी 2024 में विश्व स्वास्थ्य संगठन ने स्वास्थ्य क्षेत्र में बड़े मल्टी-मॉडल मॉडल्स और नैतिकता पर व्यापक गाइडलाइन जारी की थी. इसमें उन्होंने पारदर्शी सूचना और डिजाइन डेवलपमेंट और एलएमएस के यूज के प्रबंधन को लेकर जोर दिया है. बीएमजे इस बात पर भी जोर देता है कि इसके प्रसार को कम करने के लिए सख्त नियम महत्वपूर्ण हैं ताकि दुष्प्रचार को रोका जा सके. साथ ही ये डेवलपर्स को भी जिम्मेदार ठहरा सके. उनका कहना है कि हर हाल में पारदर्शी व्यवस्था को बढ़ावा देना चाहिए, तकनीकी सुरक्षा उपाय मजबूत होने चाहिए और संचार नीतियां स्पष्ट होनी चाहिए.

ये भी पढ़ें : देश में लगातार बढ़ रही AI की डिमांड, सैमसंग के CEO जेएच हान बोले- भारत अगला बड़ा केंद्र

हैदराबाद : यह दावा किया जा रहा है कि जेनेरेटिव आर्टिफिशिय इंटेलिजेंस स्वास्थ्य सेवा वितरण और अनुसंधान के क्षेत्र में क्रांति ला देगा, क्योंकि इसके जरिए डेटा, टेक्स्ट और वीडियो की प्रोसेसिंग बहुत फास्ट होगी.

यह भी भरोसा जताया जा रहा है कि एआई रिमोट एरिया में बैठे मरीजों की देखभाल बेहतर ढंग से कर सकता है. अनुसंधान और निदान दोनों की बेहतर होंगे. लेकिन इन दावों को आप सटीकता के साथ स्वीकार कर लें, ऐसा भी नहीं है. आपको कहीं न कहीं पर इसके साथ संलग्न रिस्क फैक्टर को भी ध्यान में रखना होगा.

ब्रिटिश मेडिकल जर्नल में प्रकाशित एक अध्ययन कहता है- जो भी इसका उपयोग करेगा, उनके बारे में गलत सूचनाएं मिल सकती हैं. स्वास्थ्य देखभाल में लापरवाही की वजह से निर्णय भी गलत लिए जा सकते हैं. सार्वजनिक रूप से सुलभ आर्टिफिशियल इंटेलिजेंस में सुरक्षा उपाय को लेकर सवाल उठ सकते हैं. अध्ययन में यह भी कहा गया है कि सुरक्षा उपायों के बिना एआई का उपयोग भ्रमात्क सूचना उत्पन्न करने के लिए किया जा सकता है.

ऑस्ट्रेलिया, अमेरिका, ब्रिटेन और कनाडा के शीर्ष शोध संस्थानों के लेखकों ने सबसे प्रमुख मल्टी-मॉडल मॉडलों की क्षमताओं की समीक्षा की, उन्होंने डिस्इंफॉर्मेशन को लेकर विशेष अध्ययन किया.

उन्होंने अपने अध्ययन में पाया कि ओपन एआई के जीपीटी-4 (ChatGPT और Microsoft के Copilot के माध्यम से), Google के PaLM 2/जेमिनी प्रो (बार्ड) और मेटा के लामा 2 (हगिंगचैट के माध्यम से) में कमी है. यानी बहुत संभव है कि इनके माध्यम से स्वास्थ्य संबंधी दुष्प्रचार किया जा सकता है.

दूसरी ओर, एंथ्रोपिक के क्लाउड 2 ने स्वास्थ्य संबंधी दुष्प्रचार को लेकर मजबूत सुरक्षा उपाय दिखाए हैं. इसका मतलब यह हुआ है कि सेफगार्ड संभव है, लेकिन एआई डेवलपर्स ने प्राथमिकता ही नहीं दी. शोधकर्ताओं ने दो सरल संकेतों पर काम किया. पहला कि क्या सनस्क्रीन से कैंसर हो सकता है. और दूसरा कि क्या क्षारीय आहार (अल्केलाइन डाइट) कैंसर का इलाज कर सकता है.

इन दोनों ही सवालों पर एआई मॉडल ने रियलिस्टिक सी दिखने वाले जवाब दिए, लेकिन ये सभी झूठी सामग्री निकली. शोधकर्ताओं ने दावा किया कि कुछ मॉडल दूसरों की तुलना में बेहतर थे. पेपर कहता है कि क्लॉड 2 (Poe के माध्यम से) ने दोनों में प्रस्तुत 130 संकेतों को अस्वीकार कर दिया. इसके विपरीत, GPT-4 (ChatGPT के माध्यम से), PaLM 2/जेमिनी प्रो (बार्ड के माध्यम से), और लामा 2 (हगिंगचैट के माध्यम से) ने लगातार स्वास्थ्य संबंधी दुष्प्रचार वाले ब्लॉग तैयार किए. सितंबर 2023 के मूल्यांकन में, एलएलएम ने 113 यूनिक कैंसर डिस्इंफॉर्मेशन ब्लॉग्स को जेनरेट किया.

एक अन्य शोध पत्र में, शोधकर्ता इस बात पर जोर देते हैं कि समस्या एआई मतिभ्रम है. और इसके बारे में पता लगाना बहुत मुश्किल होता है. मतिभ्रम तब होता है जब एक एआई मॉडल गलत डेटा जेनरेट करता है. गलत डेटा जेनरेशन की वजह है- अपर्याप्त प्रशिक्षण डेटा और प्रशिक्षण के लिए उपयोग किए गए डेटा में मॉडल या पूर्वाग्रह द्वारा बनाई गई गलत धारणाएं.

ऑस्ट्रेलिया के फ़्लिंडर्स विश्वविद्यालय के अनुसंधानकर्ता ने कहा, 'एआई मतिभ्रम विशेष रूप से चिंताजनक है. क्योंकि एलएलएम से गलत या भ्रामक स्वास्थ्य जानकारी व्यक्तियों को प्राप्त हो सकती है. और आम लोगों के लिए जिनके पास इसे डिटेक्ट करने की क्षमता नहीं होती है, वे नुकसान में हो सकते हैं.'

एक संपादकीय में बीएमजे ने जोर देकर कहा है कि गलत जानकारी स्वास्थ्य संबंधी प्रभाव डालती हैं. गलत सूचना के विनाशकारी गुण इन विषयों में स्पष्ट हैं- चिकित्सा और सार्वजनिक स्वास्थ्य, जहां असत्यापित, गलत, भ्रामक और मनगढ़ंत है, वहां पर स्वास्थ्य संबंधी निर्णयों और व्यवहारों को गंभीर रूप से प्रभावित कर सकती हैं. इसे विश्व स्वास्थ्य संगठन और इन्फोडेमियोलॉजी ने भी स्वीकार किया है.

जनवरी 2024 में विश्व स्वास्थ्य संगठन ने स्वास्थ्य क्षेत्र में बड़े मल्टी-मॉडल मॉडल्स और नैतिकता पर व्यापक गाइडलाइन जारी की थी. इसमें उन्होंने पारदर्शी सूचना और डिजाइन डेवलपमेंट और एलएमएस के यूज के प्रबंधन को लेकर जोर दिया है. बीएमजे इस बात पर भी जोर देता है कि इसके प्रसार को कम करने के लिए सख्त नियम महत्वपूर्ण हैं ताकि दुष्प्रचार को रोका जा सके. साथ ही ये डेवलपर्स को भी जिम्मेदार ठहरा सके. उनका कहना है कि हर हाल में पारदर्शी व्यवस्था को बढ़ावा देना चाहिए, तकनीकी सुरक्षा उपाय मजबूत होने चाहिए और संचार नीतियां स्पष्ट होनी चाहिए.

ये भी पढ़ें : देश में लगातार बढ़ रही AI की डिमांड, सैमसंग के CEO जेएच हान बोले- भारत अगला बड़ा केंद्र

ETV Bharat Logo

Copyright © 2024 Ushodaya Enterprises Pvt. Ltd., All Rights Reserved.