नई दिल्ली : भारत के साइबर सुरक्षा संघ के महानिदेशक, साइबर सुरक्षा विशेषज्ञ, कर्नल इंद्रजीत सिंह ने बताया कि कैसे आर्टिफिशियल इंटेलिजेंस के डार्क साइड के रूप डीपफेक उभर रहा है. और हां, काफी छलावा है! डीपफेक सामग्री ऑनलाइन में तेजी से बढ़ रही है. स्टार्टअप डिपार्ट्रेस की एक रिपोर्ट के मुताबिक, 2019 की शुरुआत में, ऑनलाइन 7,964 डीपफेक वीडियो थे और सिर्फ नौ महीने बाद यह आंकड़ा 14,678 हो गया था. इसके बाद से कोई संदेह नहीं है.
डीपलर्निंग और फेक का मिश्रण, डीपफेक सुपर-यथार्थवादी वीडियो हैं जो व्यक्तिगत रूप से कहने और करने वाली चीजों को चित्रित करने के लिए डिजिटल रूप से हेरफेर किए जाते हैं, जो वास्तव में कभी नहीं हुआ है. डीपफेक तंत्रिका नेटवर्क पर निर्भर करता है जो किसी व्यक्ति के चेहरे के भाव, व्यवहार, आवाज और ध्वनियों की नकल सीखने के लिए विशाल डेटासेट का विश्लेषण करता है.
अफवाहों, साजिशों और गलत सूचनाओं के कारण डीपफेक सोशल मीडिया प्लेटफॉर्म को सबसे पहले चिन्हित करता है और वहां बहुत आसानी से प्रसारित हो जाता है और उपयोगकर्ता की भीड़ के साथ जाने का पक्ष लेता है. बुरी खबर यह है कि न केवल कंपनियों, निगमों, और मशहूर हस्तियों को बल्कि सामान्य लोगों को भी इससे सावधान रहना चाहिए.
कर्नल इंद्रजीत आगे बताते हैं कि कल्पना कीजिए, उदाहरण के लिए, कि आपको किसी सहकर्मी से एक वीडियो कॉल प्राप्त होता है, जिसके बारे में आपकी टीम एक शीर्ष-गुप्त उत्पाद के बारे में विवरण मांग रहा हो. क्या होगा यदि कॉल आपके प्रतियोगी द्वारा शुरू की गई डीपफेक हो? नए उत्पाद के लॉन्च से आपको जो भी प्रतिस्पर्धात्मक लाभ की उम्मीद थी, वह पूरी तरह से टूट जाएगा. यह उल्लेख करने के लिए नहीं कि रहस्योद्घाटन आपके कैरियर को खतरे में डाल सकता है.