लंदन : 'जोखिम' शब्द अकसर उसी वाक्य में दिखाई देता है, जिसमें 'कृत्रिम बुद्धिमत्ता' के बारे में बात की जाती है. हालांकि यह देखना उत्साहजनक है कि विश्व के नेता एआई की संभावित समस्याओं के साथ-साथ इसके औद्योगिक और रणनीतिक लाभों पर विचार कर रहे हैं, हमें यह याद रखना चाहिए कि सभी जोखिम समान नहीं होते हैं. बुधवार, 14 जून को, यूरोपीय संसद ने एआई अधिनियम से जुड़े अपने मसौदा प्रस्ताव को मंजूरी देने के लिए मतदान किया, एआई के विनियमन में वैश्विक मानकों को आकार देने की महत्वाकांक्षा के साथ कानून बनाने में दो साल का वक्त लगा.
बातचीत के अंतिम चरण के बाद, यूरोपीय संसद, आयोग और परिषद द्वारा प्रस्तुत विभिन्न मसौदों को सुलझाने के लिए, कानून को वर्ष के अंत से पहले अनुमोदित किया जाना चाहिए. यह समाज के लगभग सभी क्षेत्रों में एआई को विनियमित करने के लिए समर्पित दुनिया का पहला कानून बन जाएगा, हालांकि रक्षा को छूट दी जाएगी. सभी तरीकों से एआई विनियमन तक पहुंचा जा सकता है, यह ध्यान देने योग्य है कि यह कानून पूरी तरह से जोखिम की धारणा के आसपास तैयार किया गया है. यह एआई ही नहीं है जिसे विनियमित किया जा रहा है, बल्कि जिस तरह से समाज के विशिष्ट डोमेन में इसका उपयोग किया जाता है, जिनमें से प्रत्येक में विभिन्न संभावित समस्याएं होती हैं. विभिन्न कानूनी दायित्वों के अधीन जोखिम की चार श्रेणियां हैं- अस्वीकार्य, उच्च, सीमित और न्यूनतम.
मौलिक अधिकारों या यूरोपीय संघ के मूल्यों के लिए खतरा पैदा करने वाली प्रणालियों को अस्वीकार्य जोखिम के रूप में वर्गीकृत किया जाएगा और प्रतिबंधित किया जाएगा. यह व्यक्तिगत जानकारी के आधार पर व्यक्तियों के जोखिम का आकलन करने के लिए एआई का उपयोग है, यह अनुमान लगाने के लिए कि क्या वे अपराध करने की संभावना रखते हैं. एक अधिक विवादास्पद मामला लाइव स्ट्रीट कैमरा फीड्स पर फेस रिकग्निशन तकनीक का उपयोग है. इसे अस्वीकार्य जोखिमों की सूची में भी जोड़ा गया है और इसकी अनुमति केवल अपराध होने के बाद और न्यायिक प्राधिकरण के साथ दी जाएगी.
उच्च जोखिम के रूप में वर्गीकृत वे प्रणालियां प्रकटीकरण के दायित्वों के अधीन होंगी और एक विशेष डेटाबेस में पंजीकृत होने की उम्मीद है. वे विभिन्न निगरानी या लेखापरीक्षा आवश्यकताओं के अधीन भी होंगे. उच्च जोखिम के रूप में वर्गीकृत किए जाने वाले अनुप्रयोगों के प्रकार में एआई शामिल है जो शिक्षा, रोजगार, वित्तपोषण, स्वास्थ्य देखभाल और अन्य महत्वपूर्ण क्षेत्रों में सेवाओं तक पहुंच को नियंत्रित कर सकता है. ऐसे क्षेत्रों में एआई का उपयोग अवांछनीय के रूप में नहीं देखा जाता है, लेकिन सुरक्षा या मौलिक अधिकारों को नकारात्मक रूप से प्रभावित करने की इसकी क्षमता के कारण निरीक्षण आवश्यक है.
विचार यह है कि हमें विश्वास करने में सक्षम होना चाहिए कि हमारे बारे में निर्णय लेने वाले किसी भी सॉफ़्टवेयर को यूरोपीय कानूनों के अनुपालन के लिए सावधानी से जांचा जाएगा ताकि यह सुनिश्चित किया जा सके कि लिंग या जातीय पृष्ठभूमि जैसी संरक्षित विशेषताओं के आधार पर हमारे साथ भेदभाव नहीं किया जा रहा है - कम से कम अगर हम यूरोपीय संघ में रहते हैं.
सीमित जोखिम एआई सिस्टम न्यूनतम पारदर्शिता आवश्यकताओं के अधीन होंगे. इसी तरह, जनरेटिव एआई सिस्टम के ऑपरेटरों - उदाहरण के लिए, पाठ या छवियों का निर्माण करने वाले - को यह खुलासा करना होगा कि उपयोगकर्ता मशीन के साथ संपर्क में हैं.
यूरोपीय संस्थानों के माध्यम से 2019 में शुरू हुई अपनी लंबी यात्रा के दौरान, संवेदनशील स्थितियों में एआई को तैनात करने के संभावित जोखिमों के बारे में कानून तेजी से विशिष्ट और स्पष्ट हो गया है - साथ ही इनपर कैसे निगरानी रखी जाए और इन जोखिमों को कैसे कम से कम किया जा सकता है. अभी बहुत अधिक काम करने की जरूरत है, लेकिन विचार स्पष्ट है: अगर हम काम करना चाहते हैं तो हमें विशिष्ट होने की जरूरत है.
वैसे यूरोपीय संघ की संसद द्वारा हाल ही में स्वीकृत किए गए मसौदा कानून में एआई के बारे में हाल की कुछ चेतावनियों की तुलना में ठोस सामग्री का अभाव है. यह अधिकारों और मूल्यों की रक्षा के बीच, नवाचार को रोके बिना, और विशेष रूप से खतरों और उपचार दोनों को संबोधित करने के बीच बारीक रेखा पर चलने का प्रयास करता है. यह एकदम सटीक तो नहीं है, पर कम से कम ठोस कार्रवाई का रास्ता बनाता है.
इस कानून की यात्रा में अगला चरण त्रिसंकेत - तीन-तरफा संवाद होगा - जहां संसद, आयोग और परिषद के अलग-अलग मसौदों को एक अंतिम पाठ में मिला दिया जाएगा. इस चरण में समझौता होने की संभावना है. अगले यूरोपीय चुनावों के लिए प्रचार शुरू होने से पहले, कानून को संभवत: 2023 के अंत में लागू किया जाएगा. दो या तीन वर्षों के बाद, अधिनियम प्रभावी होगा और यूरोपीय संघ के भीतर संचालित किसी भी व्यवसाय को इसका अनुपालन करना होगा. यह लंबी समयावधि अपने आप में कुछ सवाल उठाती है, क्योंकि हम नहीं जानते कि 2027 में एआई या दुनिया कैसी दिखेगी.
आइए याद करें कि यूरोपीय आयोग के अध्यक्ष, उर्सुला वॉन डेर लेयेन ने पहली बार महामारी, युद्ध और ऊर्जा संकट से ठीक पहले 2019 की गर्मियों में इस नियमन का प्रस्ताव रखा था. यह चैटजीपीटी द्वारा राजनेताओं और मीडिया को एआई से अस्तित्वगत जोखिम के बारे में नियमित रूप से बात करने से पहले भी था. हालांकि, अधिनियम पर्याप्त रूप से सामान्य तरीके से लिखा गया है जो इसे कुछ समय के लिए प्रासंगिक बने रहने में मदद कर सकता है. यह संभवतः प्रभावित करेगा कि शोधकर्ता और व्यवसाय यूरोप से परे एआई से कैसे संपर्क करते हैं.
हालांकि, जो स्पष्ट है, वह यह है कि हर तकनीक जोखिम पैदा करती है, और कुछ नकारात्मक होने की प्रतीक्षा करने के बजाय, शैक्षणिक और नीति-निर्धारक संस्थान अनुसंधान के परिणामों के बारे में आगे सोचने की कोशिश कर रहे हैं.
ये भी पढ़ें |
(पीटीआई-भाषा)