ETV Bharat / bharat

निर्वाचन आयोग ने दिल्ली चुनाव से पहले प्रचार में एआई के इस्तेमाल पर जारी किया परामर्श - DELHI ASSEMBLY ELECTIONS 2025

निर्वाचन आयोग ने राजनीतिक दलों को परामर्श जारी कर एआई से तैयार सामग्री के उपयोग में पारदर्शिता बढ़ावा देने के लिए कहा है.

ELECTION COMMISSION
निर्वाचन आयोग (IANS)
author img

By PTI

Published : Jan 16, 2025, 7:40 PM IST

नई दिल्ली : चुनाव प्रचार में कृत्रिम बृद्धिमत्ता (AI) के बढ़ते इस्तेमाल और मतदाताओं को प्रभावित करने की इसकी क्षमता के मद्देनजर निर्वाचन आयोग ने गुरुवार को राजनीतिक दलों को परामर्श जारी कर एआई से तैयार सामग्री के उपयोग में पारदर्शिता और जवाबदेही को बढ़ावा देने को कहा.

परामर्श में सामग्री के बारे में जानकारी सार्वजनिक करने के लिए कुछ मानदंड पेश किए गए हैं, जिनमें राजनीतिक दलों को एआई प्रौद्योगिकियों द्वारा उत्पन्न या परिवर्तित किसी भी छवि, वीडियो, ऑडियो या अन्य सामग्री को ‘एआई से तैयार/ डिजिटल रूप से संवर्धित/ कृत्रिम सामग्री’ के रूप में चिह्नित करना होगा.

परामर्श के अनुसार, राजनीतिक दलों को प्रचार विज्ञापनों या प्रचार सामग्री के प्रसार के दौरान ‘अस्वीकरण’ (डिस्क्लेमर) भी शामिल करना होगा. मुख्य निर्वाचन आयुक्त राजीव कुमार ने हाल में गलत सूचना के प्रसार में एआई और ‘डीप फेक’ के इस्तेमाल के खिलाफ चेतावनी दी थी.

उन्होंने चिंता व्यक्त करते हुए कहा था कि ‘डीप फेक’ और गलत सूचनाओं से चुनावी प्रक्रियाओं में विश्वास खत्म हो सकता है. पिछले साल लोकसभा चुनावों के दौरान आयोग ने सोशल मीडिया मंचों के जिम्मेदारीपूर्ण और नैतिक तरीके से उपयोग के लिए दिशानिर्देश जारी किए थे.

आयोग ने मान्यता प्राप्त राष्ट्रीय और राज्य स्तरीय राजनीतिक दलों के प्रमुखों से कहा, ‘‘हाल के वर्षों में, कृत्रिम बुद्धिमत्ता में प्रगति ने छवियों, वीडियो और ऑडियो सहित अत्यधिक विश्वसनीय कृत्रिम सामग्री के निर्माण को सक्षम बनाया है.’’

उसने कहा, ‘‘राजनीतिक प्रचार में एआई प्रौद्योगिकियों के बढ़ते उपयोग के साथ, पारदर्शिता और जवाबदेही बनाए रखना आवश्यक है, क्योंकि चित्रों, वीडियो और ऑडियो सहित एआई-जनित सामग्री में मतदाता की राय और विश्वास को प्रभावित करने की क्षमता है.’’

पांच फरवरी को होने वाले दिल्ली विधानसभा चुनाव से पहले भारतीय जनता पार्टी (भाजपा) और आम आदमी पार्टी (आप) एक दूसरे पर निशाना साधने के लिए एआई-जनित विषयवस्तु का इस्तेमाल कर रही हैं.

ये भी पढ़ें - दिल्ली में जिन पार्टियों के हिस्से में आईं आरक्षित सीटें, सरकार बनाने में वही पार्टी रहीं सफल

नई दिल्ली : चुनाव प्रचार में कृत्रिम बृद्धिमत्ता (AI) के बढ़ते इस्तेमाल और मतदाताओं को प्रभावित करने की इसकी क्षमता के मद्देनजर निर्वाचन आयोग ने गुरुवार को राजनीतिक दलों को परामर्श जारी कर एआई से तैयार सामग्री के उपयोग में पारदर्शिता और जवाबदेही को बढ़ावा देने को कहा.

परामर्श में सामग्री के बारे में जानकारी सार्वजनिक करने के लिए कुछ मानदंड पेश किए गए हैं, जिनमें राजनीतिक दलों को एआई प्रौद्योगिकियों द्वारा उत्पन्न या परिवर्तित किसी भी छवि, वीडियो, ऑडियो या अन्य सामग्री को ‘एआई से तैयार/ डिजिटल रूप से संवर्धित/ कृत्रिम सामग्री’ के रूप में चिह्नित करना होगा.

परामर्श के अनुसार, राजनीतिक दलों को प्रचार विज्ञापनों या प्रचार सामग्री के प्रसार के दौरान ‘अस्वीकरण’ (डिस्क्लेमर) भी शामिल करना होगा. मुख्य निर्वाचन आयुक्त राजीव कुमार ने हाल में गलत सूचना के प्रसार में एआई और ‘डीप फेक’ के इस्तेमाल के खिलाफ चेतावनी दी थी.

उन्होंने चिंता व्यक्त करते हुए कहा था कि ‘डीप फेक’ और गलत सूचनाओं से चुनावी प्रक्रियाओं में विश्वास खत्म हो सकता है. पिछले साल लोकसभा चुनावों के दौरान आयोग ने सोशल मीडिया मंचों के जिम्मेदारीपूर्ण और नैतिक तरीके से उपयोग के लिए दिशानिर्देश जारी किए थे.

आयोग ने मान्यता प्राप्त राष्ट्रीय और राज्य स्तरीय राजनीतिक दलों के प्रमुखों से कहा, ‘‘हाल के वर्षों में, कृत्रिम बुद्धिमत्ता में प्रगति ने छवियों, वीडियो और ऑडियो सहित अत्यधिक विश्वसनीय कृत्रिम सामग्री के निर्माण को सक्षम बनाया है.’’

उसने कहा, ‘‘राजनीतिक प्रचार में एआई प्रौद्योगिकियों के बढ़ते उपयोग के साथ, पारदर्शिता और जवाबदेही बनाए रखना आवश्यक है, क्योंकि चित्रों, वीडियो और ऑडियो सहित एआई-जनित सामग्री में मतदाता की राय और विश्वास को प्रभावित करने की क्षमता है.’’

पांच फरवरी को होने वाले दिल्ली विधानसभा चुनाव से पहले भारतीय जनता पार्टी (भाजपा) और आम आदमी पार्टी (आप) एक दूसरे पर निशाना साधने के लिए एआई-जनित विषयवस्तु का इस्तेमाल कर रही हैं.

ये भी पढ़ें - दिल्ली में जिन पार्टियों के हिस्से में आईं आरक्षित सीटें, सरकार बनाने में वही पार्टी रहीं सफल

ETV Bharat Logo

Copyright © 2025 Ushodaya Enterprises Pvt. Ltd., All Rights Reserved.