हैदराबाद : स्वास्थ्य के लिए आर्टिफिशियल इंटेलिजेंस (Artificial Intelligence) का बढ़ता उपयोग सरकारों, प्रदाताओं और समुदायों के लिए अवसर के साथ कई चुनौतियां साथ लेकर आया है. सभी नई टैक्नॉलॉजी की तरह, आर्टिफिशियल इंटेलिजेंस बुद्धिमता का भी गलत इस्तेमाल किया जा सकता है और यह नुकसान की वजह बन सकती है. इसे ध्यान में रखते हुए स्वास्थ्य से जुड़े विषयों पर आर्टिफिशियल इंटेलीजेंस से प्राप्त अवसरों का अधिकतम लाभ उठाने और जोखिमों को सीमित करने के लिए छह सिद्धान्तों को पेश किया गया है.
आर्टिफिशियल इंटेलिजेंस का गलत इस्तेमाल न हो इसे ध्यान में रखते हुए स्वास्थ्य से जुड़े विषयों पर आर्टिफिशियल इंटेलीजेंस से प्राप्त अवसरों का अधिकतम लाभ उठाने और जोखिमों को सीमित करने के लिए छह सिद्धान्तों को पेश किया गया है.
मानव स्वायत्तता की रक्षा करना
स्वास्थ्य देखभाल के संदर्भ में इसका मतलब है कि इंसानों को स्वास्थ्य देखभाल प्रणालियों (health care systems) और चिकित्सा निर्णयों (medical decisions) के नियंत्रण में रहना चाहिए. प्राइवेसी और कोन्फिडेंशलिटी (privacy and confidentiality) की रक्षा की जानी चाहिए और रोगियों को डेटा सुरक्षा (data protection) के लिए उपयुक्त कानूनी ढांचे के माध्यम से वैध सूचित सहमति देनी चाहिए.
मानव कल्याण, सुरक्षा और सार्वजनिक हित को बढ़ावा देना.
आर्टिफिशियल इंटेलिजेंस टेक्नोलॉजी (Artificial Intelligence technologies) के डिजाइनरों को अच्छी तरह से परिभाषित उपयोग के मामलों या संकेतों के लिए सुरक्षा, सटीकता और प्रभावकारिता के लिए नियामक आवश्यकताओं को पूरा करना चाहिए. व्यवहार में गुणवत्ता नियंत्रण के उपाय और आर्टिफिशियल इंटेलिजेंस के उपयोग में गुणवत्ता सुधार (quality improvement ) के उपाय उपलब्ध होने चाहिए.
पारदर्शिता, व्याख्यात्मकता और बोधगम्यता सुनिश्चित करना
पारदर्शिता (Transparency) के लिए आवश्यक है कि और आर्टिफिशियल इंटेलिजेंस तकनीक के डिजाइन से पहले पर्याप्त जानकारी प्रकाशित या प्रलेखित की जाए. इस तरह की जानकारी आसानी से सुलभ होनी चाहिए और इस पर सार्वजनिक परामर्श (public consultation) और बहस की सुविधा होनी चाहिए कि टेक्नोलॉजी कैसे डिजाइन की गई है और इसका उपयोग कैसे किया जाना चाहिए या नहीं.
जिम्मेदारी और जवाबदेही को बढ़ावा देना