ETV Bharat / bharat

WHO ने स्वास्थ्य क्षेत्र में आर्टिफिशियल इंटेलिजेंस की पहली वैश्विक रिपोर्ट

author img

By

Published : Jun 30, 2021, 5:24 PM IST

विश्व स्वास्थ्य संगठन का कहना है कि कृत्रिम बुद्धिमता (Artificial Intelligence) के उपयोग से दुनिया भर में लाखों लोगों के स्वास्थ्य को बेहतर बनाया जा सकता है, मगर यह जरूरी है कि इसके विकास, तैनाती और इस्तेमाल के केन्द्र में मानवाधिकारों और आचार-शास्त्र को रखा जाए.

आर्टिफिशियल इंटेलिजेंस
आर्टिफिशियल इंटेलिजेंस

हैदराबाद : स्वास्थ्य के लिए आर्टिफिशियल इंटेलिजेंस (Artificial Intelligence) का बढ़ता उपयोग सरकारों, प्रदाताओं और समुदायों के लिए अवसर के साथ कई चुनौतियां साथ लेकर आया है. सभी नई टैक्नॉलॉजी की तरह, आर्टिफिशियल इंटेलिजेंस बुद्धिमता का भी गलत इस्तेमाल किया जा सकता है और यह नुकसान की वजह बन सकती है. इसे ध्यान में रखते हुए स्वास्थ्य से जुड़े विषयों पर आर्टिफिशियल इंटेलीजेंस से प्राप्त अवसरों का अधिकतम लाभ उठाने और जोखिमों को सीमित करने के लिए छह सिद्धान्तों को पेश किया गया है.

आर्टिफिशियल इंटेलिजेंस का गलत इस्तेमाल न हो इसे ध्यान में रखते हुए स्वास्थ्य से जुड़े विषयों पर आर्टिफिशियल इंटेलीजेंस से प्राप्त अवसरों का अधिकतम लाभ उठाने और जोखिमों को सीमित करने के लिए छह सिद्धान्तों को पेश किया गया है.

मानव स्वायत्तता की रक्षा करना

स्वास्थ्य देखभाल के संदर्भ में इसका मतलब है कि इंसानों को स्वास्थ्य देखभाल प्रणालियों (health care systems) और चिकित्सा निर्णयों (medical decisions) के नियंत्रण में रहना चाहिए. प्राइवेसी और कोन्फिडेंशलिटी (privacy and confidentiality) की रक्षा की जानी चाहिए और रोगियों को डेटा सुरक्षा (data protection) के लिए उपयुक्त कानूनी ढांचे के माध्यम से वैध सूचित सहमति देनी चाहिए.

मानव कल्याण, सुरक्षा और सार्वजनिक हित को बढ़ावा देना.

आर्टिफिशियल इंटेलिजेंस टेक्नोलॉजी (Artificial Intelligence technologies) के डिजाइनरों को अच्छी तरह से परिभाषित उपयोग के मामलों या संकेतों के लिए सुरक्षा, सटीकता और प्रभावकारिता के लिए नियामक आवश्यकताओं को पूरा करना चाहिए. व्यवहार में गुणवत्ता नियंत्रण के उपाय और आर्टिफिशियल इंटेलिजेंस के उपयोग में गुणवत्ता सुधार (quality improvement ) के उपाय उपलब्ध होने चाहिए.

पारदर्शिता, व्याख्यात्मकता और बोधगम्यता सुनिश्चित करना

पारदर्शिता (Transparency) के लिए आवश्यक है कि और आर्टिफिशियल इंटेलिजेंस तकनीक के डिजाइन से पहले पर्याप्त जानकारी प्रकाशित या प्रलेखित की जाए. इस तरह की जानकारी आसानी से सुलभ होनी चाहिए और इस पर सार्वजनिक परामर्श (public consultation) और बहस की सुविधा होनी चाहिए कि टेक्नोलॉजी कैसे डिजाइन की गई है और इसका उपयोग कैसे किया जाना चाहिए या नहीं.

जिम्मेदारी और जवाबदेही को बढ़ावा देना

अगर आर्टिफिशियल इंटेलिजेंस टेक्नोलॉजी विशिष्ट कार्य करती हैं, तो यह सुनिश्चित करने की जिम्मेदारी हितधारकों की है कि उनका उपयोग उपयुक्त परिस्थितियों में और उचित रूप से प्रशिक्षित लोगों (appropriately trained people) द्वारा किया जाए.

एल्गोरिदम (algorithms) पर आधारित निर्णयों से प्रतिकूल रूप से प्रभावित लोगों और समूहों के लिए पूछताछ और निवारण करने के प्रभावी तंत्र उपलब्ध होना चाहिए.

पढ़ें - हूल क्रांति: संथाल विद्रोह को नहीं दबा सकी थी अंग्रेजी हुकूमत

समावेशिता और समानता सुनिश्चित करना

समावेशिता ( Inclusiveness) की आवश्यकता है कि स्वास्थ्य के लिए आर्टिफिशियल इंटेलिजेंस को मानव अधिकार संहिता के तहत संरक्षित उम्र, लिंग, लिंग, आय, नस्ल, जातीयता, यौन अभिविन्यास, क्षमता या अन्य विशेषताओं के बावजूद व्यापक संभव न्यायसंगत उपयोग और पहुंच को प्रोत्साहित करने के लिए डिजाइन किया गया है.

उत्तरदायी और टिकाऊ आर्टिफिशियल इंटेलिजेंस को बढ़ावा

डिजाइनरों, डेवलपर्स और उपयोगकर्ताओं को वास्तविक उपयोग के दौरान आर्टिफिशियल इंटेलिजेंस अनुप्रयोगों का निरंतर और पारदर्शी रूप से मूल्यांकन करना चाहिए, ताकि यह निर्धारित किया जा सके कि आर्टिफिशियल इंटेलिजेंस अपेक्षाओं और आवश्यकताओं के लिए पर्याप्त और उचित रूप से प्रतिक्रिया देता है या नहीं.

आर्टिफिशियल इंटेलिजेंस सिस्टम को उनके पर्यावरणीय परिणामों को कम करने और ऊर्जा दक्षता बढ़ाने के लिए भी डिजाइन किया जाना चाहिए. सरकारों और कंपनियों को कार्यस्थल में प्रत्याशित व्यवधानों को संबोधित करना चाहिए, जिसमें आर्टिफिशियल इंटेलिजेंस सिस्टम के उपयोग के लिए स्वास्थ्य देखभाल श्रमिकों के लिए प्रशिक्षण, और स्वचालित प्रणालियों के उपयोग के कारण संभावित नौकरी के नुकसान शामिल हैं.

ये सिद्धांत भविष्य के डब्ल्यूएचओ के प्रयासों का मार्गदर्शन करेंगे ताकि यह सुनिश्चित किया जा सके कि स्वास्थ्य और सार्वजनिक स्वास्थ्य के लिए आर्टिफिशियल इंटेलिजेंस की पूरी क्षमता का उपयोग सभी के लाभों के लिए किया जाएगा.

हैदराबाद : स्वास्थ्य के लिए आर्टिफिशियल इंटेलिजेंस (Artificial Intelligence) का बढ़ता उपयोग सरकारों, प्रदाताओं और समुदायों के लिए अवसर के साथ कई चुनौतियां साथ लेकर आया है. सभी नई टैक्नॉलॉजी की तरह, आर्टिफिशियल इंटेलिजेंस बुद्धिमता का भी गलत इस्तेमाल किया जा सकता है और यह नुकसान की वजह बन सकती है. इसे ध्यान में रखते हुए स्वास्थ्य से जुड़े विषयों पर आर्टिफिशियल इंटेलीजेंस से प्राप्त अवसरों का अधिकतम लाभ उठाने और जोखिमों को सीमित करने के लिए छह सिद्धान्तों को पेश किया गया है.

आर्टिफिशियल इंटेलिजेंस का गलत इस्तेमाल न हो इसे ध्यान में रखते हुए स्वास्थ्य से जुड़े विषयों पर आर्टिफिशियल इंटेलीजेंस से प्राप्त अवसरों का अधिकतम लाभ उठाने और जोखिमों को सीमित करने के लिए छह सिद्धान्तों को पेश किया गया है.

मानव स्वायत्तता की रक्षा करना

स्वास्थ्य देखभाल के संदर्भ में इसका मतलब है कि इंसानों को स्वास्थ्य देखभाल प्रणालियों (health care systems) और चिकित्सा निर्णयों (medical decisions) के नियंत्रण में रहना चाहिए. प्राइवेसी और कोन्फिडेंशलिटी (privacy and confidentiality) की रक्षा की जानी चाहिए और रोगियों को डेटा सुरक्षा (data protection) के लिए उपयुक्त कानूनी ढांचे के माध्यम से वैध सूचित सहमति देनी चाहिए.

मानव कल्याण, सुरक्षा और सार्वजनिक हित को बढ़ावा देना.

आर्टिफिशियल इंटेलिजेंस टेक्नोलॉजी (Artificial Intelligence technologies) के डिजाइनरों को अच्छी तरह से परिभाषित उपयोग के मामलों या संकेतों के लिए सुरक्षा, सटीकता और प्रभावकारिता के लिए नियामक आवश्यकताओं को पूरा करना चाहिए. व्यवहार में गुणवत्ता नियंत्रण के उपाय और आर्टिफिशियल इंटेलिजेंस के उपयोग में गुणवत्ता सुधार (quality improvement ) के उपाय उपलब्ध होने चाहिए.

पारदर्शिता, व्याख्यात्मकता और बोधगम्यता सुनिश्चित करना

पारदर्शिता (Transparency) के लिए आवश्यक है कि और आर्टिफिशियल इंटेलिजेंस तकनीक के डिजाइन से पहले पर्याप्त जानकारी प्रकाशित या प्रलेखित की जाए. इस तरह की जानकारी आसानी से सुलभ होनी चाहिए और इस पर सार्वजनिक परामर्श (public consultation) और बहस की सुविधा होनी चाहिए कि टेक्नोलॉजी कैसे डिजाइन की गई है और इसका उपयोग कैसे किया जाना चाहिए या नहीं.

जिम्मेदारी और जवाबदेही को बढ़ावा देना

अगर आर्टिफिशियल इंटेलिजेंस टेक्नोलॉजी विशिष्ट कार्य करती हैं, तो यह सुनिश्चित करने की जिम्मेदारी हितधारकों की है कि उनका उपयोग उपयुक्त परिस्थितियों में और उचित रूप से प्रशिक्षित लोगों (appropriately trained people) द्वारा किया जाए.

एल्गोरिदम (algorithms) पर आधारित निर्णयों से प्रतिकूल रूप से प्रभावित लोगों और समूहों के लिए पूछताछ और निवारण करने के प्रभावी तंत्र उपलब्ध होना चाहिए.

पढ़ें - हूल क्रांति: संथाल विद्रोह को नहीं दबा सकी थी अंग्रेजी हुकूमत

समावेशिता और समानता सुनिश्चित करना

समावेशिता ( Inclusiveness) की आवश्यकता है कि स्वास्थ्य के लिए आर्टिफिशियल इंटेलिजेंस को मानव अधिकार संहिता के तहत संरक्षित उम्र, लिंग, लिंग, आय, नस्ल, जातीयता, यौन अभिविन्यास, क्षमता या अन्य विशेषताओं के बावजूद व्यापक संभव न्यायसंगत उपयोग और पहुंच को प्रोत्साहित करने के लिए डिजाइन किया गया है.

उत्तरदायी और टिकाऊ आर्टिफिशियल इंटेलिजेंस को बढ़ावा

डिजाइनरों, डेवलपर्स और उपयोगकर्ताओं को वास्तविक उपयोग के दौरान आर्टिफिशियल इंटेलिजेंस अनुप्रयोगों का निरंतर और पारदर्शी रूप से मूल्यांकन करना चाहिए, ताकि यह निर्धारित किया जा सके कि आर्टिफिशियल इंटेलिजेंस अपेक्षाओं और आवश्यकताओं के लिए पर्याप्त और उचित रूप से प्रतिक्रिया देता है या नहीं.

आर्टिफिशियल इंटेलिजेंस सिस्टम को उनके पर्यावरणीय परिणामों को कम करने और ऊर्जा दक्षता बढ़ाने के लिए भी डिजाइन किया जाना चाहिए. सरकारों और कंपनियों को कार्यस्थल में प्रत्याशित व्यवधानों को संबोधित करना चाहिए, जिसमें आर्टिफिशियल इंटेलिजेंस सिस्टम के उपयोग के लिए स्वास्थ्य देखभाल श्रमिकों के लिए प्रशिक्षण, और स्वचालित प्रणालियों के उपयोग के कारण संभावित नौकरी के नुकसान शामिल हैं.

ये सिद्धांत भविष्य के डब्ल्यूएचओ के प्रयासों का मार्गदर्शन करेंगे ताकि यह सुनिश्चित किया जा सके कि स्वास्थ्य और सार्वजनिक स्वास्थ्य के लिए आर्टिफिशियल इंटेलिजेंस की पूरी क्षमता का उपयोग सभी के लाभों के लिए किया जाएगा.

ETV Bharat Logo

Copyright © 2024 Ushodaya Enterprises Pvt. Ltd., All Rights Reserved.