ETV Bharat / science-and-technology

टेलीग्राम पर पोर्नोग्राफिक डीपफेक बना रहा है बॉट्स

खराब बॉट्स पर फिर से हमला हुआ है और इस बार वे टेलीग्राम में तकनीक डीपकेक का उपयोग करके न्युड फॉल्स पैदा कर रहे हैं, जो यथार्थवादी फोटोमोंटेज बनाने के लिए आर्टफिशल इन्टेलिजन्स का उपयोग करता है. इसमें डीपफेक का उपयोग कैसे होता है? वास्तव में डीपफेक क्या है?साइबर सिक्योरिटी एसोसिएशन ऑफ इंडिया के डायरेक्टर जनरल और साइबर सिक्योरिटी एक्सपर्ट, कर्नल इंद्रजीत सिंह ने इन सबका उत्तर दिया और विस्तार से इसके बारे में बताया है

Deepfake, DeepNude
टेलीग्राम पर पोर्नोग्राफिक डीपफेक बना रहा है बॉट्स
author img

By

Published : Oct 29, 2020, 11:59 AM IST

Updated : Feb 16, 2021, 7:31 PM IST

दिल्ली: क्लाउड-आधारित मैसेजिंग प्लेटफॉर्म टेलीग्राम, पोर्नोग्राफिक डीपफेक के लिए एक हॉटबेड बन गया है, जो नीदरलैंड में स्थित एक विजुअल थ्रेट इन्टेलिजन्स कंपनी सेंसिटी द्वारा की गई एक सुरक्षा जांच के अनुसार, एक 'डीपफेक इकोसिस्टम' है जो मैसेजिंग एप टेलीग्राम पर मौजूद है.

कर्नल इंद्रजीत ने कहा कि ऐसा प्रतीत होता है कि एप पर लोगों का एक बड़ा नेटवर्क गैर-असंगत फेक इमेज बनाने के लिए तकनीक का उपयोग कर रहा है. डीपफेक पारिस्थितिकी तंत्र समान इस एंड-टू-एंड एन्क्रिप्टेड मैसेंजर का केंद्र बिंदु, एक एआई-संचालित बॉट है. जो उपयोगकर्ताओं को वास्तविक रूप से 'स्ट्रिप नेकेड' महिलाओं की कपड़े पहने छवियों की अनुमति देता है.

Deepfake, DeepNude
टेलीग्राम पर पोर्नोग्राफिक डीपफेक बना रहा है बॉट्स

680,000 से अधिक महिलाओं को पता नहीं है कि उनकी तस्वीरों को मैसेजिंग एप टेलीग्राम पर एक बॉट में अपलोड किया गया था ताकि उनकी जानकारी या सहमति के बिना फोटो-यथार्थवादी न्युड फॉल्स इमेज का निर्माण किया जा सके.इन तस्वीरों में (आर्टफिशल इन्टेलिजन्स पर आधारित एक बॉट द्वारा संशोधित) इस तकनीक का शिकार हुई महिलाएं न्युड दिखाई देती हैं और इन तस्वीरों को टेलीग्राम चैनलों पर साझा किया जा रहा है.

Deepfake, DeepNude
टेलीग्राम पर पोर्नोग्राफिक डीपफेक बना रहा है बॉट्स

टेलीग्राम पर निजी मैसेजिंग चैनल से जुड़कर बॉट उपयोग करने के लिए स्वतंत्र है. एक इमेज को 'स्ट्रिप' करने के लिए, सभी उपयोगकर्ताओं को एक व्यक्ति की एक तस्वीर अपलोड करने की आवश्यकता होती है और बॉट उसे न्युड दिखाई देने वाली इमेज को वापस भेज देगा.अब तक की सभी छवियां महिलाओं की हैं. इस परिवर्तन की लागत कुछ भी नहीं है हालांकि उपयोगकर्ता कई इमेज को अपलोड करने के लिए भुगतान कर सकते हैं जो वॉटरमार्क के बिना वापस आ जाएंगे.

यह पहली बार नहीं है कि हम डीपफेक और इस तकनीक के उपयोग करके महिलाओं को 'अनड्रेस्ड' करने के बारे में बात कर रहे हैं. पिछले साल 2019 में, 'डीप न्यूड' ऐप ने कॉफी सुर्खियां बटोरीं, लेकिन इसके निर्माता ने उन सभी विवादों के बाद एप को बंद करने का फैसला किया जो इसके आसपास उत्पन्न हुए थे. इमेज को बनाने के लिए उपयोग किए जाने वाले प्रोग्राम को 'डीपन्युड' के रूप में जाना जाता है, जो पोर्नोग्राफिक इमेज बनाने के लिए समर्पित विभिन्न प्रकार के डीपफेक तकनीक का उपयोग करता है. इसके निर्माता ने इंटरनेट उपयोगकर्ताओं द्वारा दुरुपयोग के डर से, पिछले साल जून में इसके प्रकाशन के तुरंत बाद इंटरनेट से टूल को हटा दिया. हालांकि, उन्नत उपयोगकर्ता सॉफ्टवेयर को रिवर्स करने और टेलीग्राम में रोबोट के लिए कोड को अनुकूलित करने में सक्षम थे - जो अन्य प्लेटफार्मों के लिए स्वचालित रूप से भुगतान का प्रबंधन भी कर सकता है.

डीप न्यूड एक आर्टिफिशियल इंटेलिजेंस तकनीक का उपयोग करता है जिसे एडवरसरी जनरेटिव नेटवर्क्स (जीएएन) कहा जाता है, जिसके साथ परिवर्तनशील परिणाम प्राप्त होते हैं,कुछ में इमेज पिक्सेल के साथ स्पष्ट रूप से यह दिख जाता हैं कि इमेज फेक हैं, लेकिन कभी-कभी यह आश्वस्त भी कर सकते है कि वह इमेज वास्तविक होगी. डीप न्यूड का उपयोग करना आसान है और डीपफेक की तुलना में अधिक आसानी से उपयोग किया जा सकता है. जबकि डीपफेक को बहुत से तकनीकी विशेषज्ञता, विशाल डेटासेट और महंगे ग्राफिक्स कार्ड की आवश्यकता होती है.

सोशल मीडिया या निजी स्रोतों से आ रही 70% तस्वीरों के साथ, लगभग 104,852 महिलाओं की तस्वीरों को एप में सार्वजनिक रूप से पोस्ट किया गया है. बॉट के उपयोगकर्ताओं पर सेंसिटी द्वारा किए गए सर्वेक्षण के अनुसार, 63% डीपफेक, व्यक्तिगत रूप से उपयोगकर्ताओं को ज्ञात महिलाओं के चेहरे से उत्पन्न होते हैं. वे नेकेड अवतार उत्पन्न करने के लिए एक सामाजिक नेटवर्क से या व्यक्तिगत तस्वीरों का उपयोग करते हैं. 16% उपयोगकर्ता सेलिब्रिटी चेहरे, इंस्टाग्राम मॉडल या इनफ्लुएंसर और रैडंम महिलाओं के 7%से डीपफेक उत्पन्न करना पसंद करते हैं. सेंसिटी ने यह भी नोट किय है कि डीपफेक की सीमित संख्या में नाबालिग भी शामिल हैं.

  • गैर-सहमति यौन वीडियो सहित डीफकेक वीडियो बनाने वाले एल्गोरिदम के विपरीत, टेलीग्राम बॉट को काम करने के लिए हजारों इमेज की आवश्यकता नहीं होती है. इसे डीपफेक बनाने के लिए केवल एक इमेज की आवश्यकता होती है.
  • यह बॉट आर्टफिशल इन्टेलिजन्स द्वारा संचालित हैं.सेंसिटी के अनुसार, बिना कपड़े पहने 'फोटो खिंचवाने' की हरकतें, अक्सर सार्वजनिक रूप से शर्मसार करने और जबरन वसूली के लिए उपयोग की जाती है.
  • यह फर्म इस प्रक्रिया को एक प्रकार की संपादन सुविधा के रूप में वर्णित करती है जिसे स्मार्टफोन और पारंपरिक कंप्यूटर मालिकों द्वारा आसानी से उपयोग किया जा सकता है. उन्हें बस अपनी निजी इमेज की गैलरी से एक फोटो प्राप्त करना है और बॉट्स को डीपफेक उत्पन्न करने की अनुमति देना है. ये तस्वीरें इंटरनेट पर कहीं से भी हो सकती हैं.
  • जब आप लोगों के खतरे को कम करने या ब्लैकमेल करने पर विचार करते हैं तो निश्चित रूप से यह चिंता का एक कारण बन जाता है, हालांकि चैनल के व्यवस्थापक ने कहा है कि कुछ भी घटित होने के लिए छवियां पर्याप्त रूप से यथार्थवादी नहीं हैं.

जब 2017 के अंत में डीपफेक उभरना शुरू हुआ, मीडिया और राजनेताओं ने उन खतरों पर ध्यान केंद्रित किया जिसको वह एक दुष्प्रचार उपकरण के रूप में पेश कर सके. लेकिन डीपफेक का सबसे विनाशकारी उपयोग महिलाओं के खिलाफ हमेशा से होता रहा है: चाहे वह तकनीक का प्रयोग करना हो, बिना महिलाओं की सहमति के चित्रों का उपयोग करना या दुर्भावनापूर्ण रूप से इंटरनेट पर बिना सहमति अश्लील पोर्न फैलाना. डीप न्यूड उस तकनीक का एक विकास है जो डीपफेक की तुलना में उपयोग करने में आसान और तेज है. डीप न्यूड इस विचार के साथ भी फैलता है कि इस तकनीक का इस्तेमाल महिलाओं के शरीर पर स्वामित्व का दावा करने के अलावा किसी और चीज के लिए भी किया जा सकता है.

कर्नल इंद्रजीत आगे कहते हैं कि डीपफेक एक व्यापक, अंतर्राष्ट्रीय घटना बन गई है, लेकिन प्लेटफॉर्म मॉडरेशन और कानून अब तक इस तेज-तर्रार तकनीक के साथ बनाए रखने में विफल रहे हैं. इस बीच, महिलाओं को डीपफेक का शिकार किया जाता है और राजनीतिक, यूएस-केंद्रित राजनीतिक कथा के लिए पीछे छोड़ दिया जाता है. हालांकि, डीपफेक को ज्यादातर गैर-जिम्मेदार महिलाओं के खिलाफ हथियारबंद किया गया है, लेकिन ज्यादातर सुर्खियों और राजनीतिक डर ने डीपफेक की फेक समाचार क्षमता पर ध्यान केंद्रित किया है.

यह तो स्पष्ट है कि दुर्भाग्य से इस तरह के दुरुपयोग को रोकने योग्य नहीं होगा क्योंकि इस तकनीक का उपयोग हर किसी के लिए अधिक सुलभ हो रहा है, यह कुछ ऐसा है जो हमें कुछ चिंताजनक परिदृश्यों तक ले जा सकता है. हम जो उम्मीद करते हैं यह निश्चित रुप से होने वाला बहाव है जो कस्टम पोर्नोग्राफी, रिवेंज पोर्न, ब्लैकमेल, प्रतिष्ठा हमलों आदि के उद्देश्यों के लिए उपयोग की जाने वाली डीपफेक तकनीक को देखेगा. सेंसिटी की रिपोर्ट में यह भी कहा गया है कि 70% पीड़ित निजी नागरिक हैं, जबकि शेष 30% सेलिब्रिटी हैं.

एक बड़ी चिंता यह है कि ऐसे मामले भी हो सकते हैं जिनमें कुछ लोग इस सामग्री का उपयोग पैसे निकालने के लिए कर सकते हैं इसके अलावा जो लोग इमेज में दिखाई देते हैं उनको अपमानित करने के लिए धमकी दे सकते हैं.

पढे़ंः जानिए बिल गेट्स के जन्मदिन पर उनके बारे में कुछ रोचक बातें

दिल्ली: क्लाउड-आधारित मैसेजिंग प्लेटफॉर्म टेलीग्राम, पोर्नोग्राफिक डीपफेक के लिए एक हॉटबेड बन गया है, जो नीदरलैंड में स्थित एक विजुअल थ्रेट इन्टेलिजन्स कंपनी सेंसिटी द्वारा की गई एक सुरक्षा जांच के अनुसार, एक 'डीपफेक इकोसिस्टम' है जो मैसेजिंग एप टेलीग्राम पर मौजूद है.

कर्नल इंद्रजीत ने कहा कि ऐसा प्रतीत होता है कि एप पर लोगों का एक बड़ा नेटवर्क गैर-असंगत फेक इमेज बनाने के लिए तकनीक का उपयोग कर रहा है. डीपफेक पारिस्थितिकी तंत्र समान इस एंड-टू-एंड एन्क्रिप्टेड मैसेंजर का केंद्र बिंदु, एक एआई-संचालित बॉट है. जो उपयोगकर्ताओं को वास्तविक रूप से 'स्ट्रिप नेकेड' महिलाओं की कपड़े पहने छवियों की अनुमति देता है.

Deepfake, DeepNude
टेलीग्राम पर पोर्नोग्राफिक डीपफेक बना रहा है बॉट्स

680,000 से अधिक महिलाओं को पता नहीं है कि उनकी तस्वीरों को मैसेजिंग एप टेलीग्राम पर एक बॉट में अपलोड किया गया था ताकि उनकी जानकारी या सहमति के बिना फोटो-यथार्थवादी न्युड फॉल्स इमेज का निर्माण किया जा सके.इन तस्वीरों में (आर्टफिशल इन्टेलिजन्स पर आधारित एक बॉट द्वारा संशोधित) इस तकनीक का शिकार हुई महिलाएं न्युड दिखाई देती हैं और इन तस्वीरों को टेलीग्राम चैनलों पर साझा किया जा रहा है.

Deepfake, DeepNude
टेलीग्राम पर पोर्नोग्राफिक डीपफेक बना रहा है बॉट्स

टेलीग्राम पर निजी मैसेजिंग चैनल से जुड़कर बॉट उपयोग करने के लिए स्वतंत्र है. एक इमेज को 'स्ट्रिप' करने के लिए, सभी उपयोगकर्ताओं को एक व्यक्ति की एक तस्वीर अपलोड करने की आवश्यकता होती है और बॉट उसे न्युड दिखाई देने वाली इमेज को वापस भेज देगा.अब तक की सभी छवियां महिलाओं की हैं. इस परिवर्तन की लागत कुछ भी नहीं है हालांकि उपयोगकर्ता कई इमेज को अपलोड करने के लिए भुगतान कर सकते हैं जो वॉटरमार्क के बिना वापस आ जाएंगे.

यह पहली बार नहीं है कि हम डीपफेक और इस तकनीक के उपयोग करके महिलाओं को 'अनड्रेस्ड' करने के बारे में बात कर रहे हैं. पिछले साल 2019 में, 'डीप न्यूड' ऐप ने कॉफी सुर्खियां बटोरीं, लेकिन इसके निर्माता ने उन सभी विवादों के बाद एप को बंद करने का फैसला किया जो इसके आसपास उत्पन्न हुए थे. इमेज को बनाने के लिए उपयोग किए जाने वाले प्रोग्राम को 'डीपन्युड' के रूप में जाना जाता है, जो पोर्नोग्राफिक इमेज बनाने के लिए समर्पित विभिन्न प्रकार के डीपफेक तकनीक का उपयोग करता है. इसके निर्माता ने इंटरनेट उपयोगकर्ताओं द्वारा दुरुपयोग के डर से, पिछले साल जून में इसके प्रकाशन के तुरंत बाद इंटरनेट से टूल को हटा दिया. हालांकि, उन्नत उपयोगकर्ता सॉफ्टवेयर को रिवर्स करने और टेलीग्राम में रोबोट के लिए कोड को अनुकूलित करने में सक्षम थे - जो अन्य प्लेटफार्मों के लिए स्वचालित रूप से भुगतान का प्रबंधन भी कर सकता है.

डीप न्यूड एक आर्टिफिशियल इंटेलिजेंस तकनीक का उपयोग करता है जिसे एडवरसरी जनरेटिव नेटवर्क्स (जीएएन) कहा जाता है, जिसके साथ परिवर्तनशील परिणाम प्राप्त होते हैं,कुछ में इमेज पिक्सेल के साथ स्पष्ट रूप से यह दिख जाता हैं कि इमेज फेक हैं, लेकिन कभी-कभी यह आश्वस्त भी कर सकते है कि वह इमेज वास्तविक होगी. डीप न्यूड का उपयोग करना आसान है और डीपफेक की तुलना में अधिक आसानी से उपयोग किया जा सकता है. जबकि डीपफेक को बहुत से तकनीकी विशेषज्ञता, विशाल डेटासेट और महंगे ग्राफिक्स कार्ड की आवश्यकता होती है.

सोशल मीडिया या निजी स्रोतों से आ रही 70% तस्वीरों के साथ, लगभग 104,852 महिलाओं की तस्वीरों को एप में सार्वजनिक रूप से पोस्ट किया गया है. बॉट के उपयोगकर्ताओं पर सेंसिटी द्वारा किए गए सर्वेक्षण के अनुसार, 63% डीपफेक, व्यक्तिगत रूप से उपयोगकर्ताओं को ज्ञात महिलाओं के चेहरे से उत्पन्न होते हैं. वे नेकेड अवतार उत्पन्न करने के लिए एक सामाजिक नेटवर्क से या व्यक्तिगत तस्वीरों का उपयोग करते हैं. 16% उपयोगकर्ता सेलिब्रिटी चेहरे, इंस्टाग्राम मॉडल या इनफ्लुएंसर और रैडंम महिलाओं के 7%से डीपफेक उत्पन्न करना पसंद करते हैं. सेंसिटी ने यह भी नोट किय है कि डीपफेक की सीमित संख्या में नाबालिग भी शामिल हैं.

  • गैर-सहमति यौन वीडियो सहित डीफकेक वीडियो बनाने वाले एल्गोरिदम के विपरीत, टेलीग्राम बॉट को काम करने के लिए हजारों इमेज की आवश्यकता नहीं होती है. इसे डीपफेक बनाने के लिए केवल एक इमेज की आवश्यकता होती है.
  • यह बॉट आर्टफिशल इन्टेलिजन्स द्वारा संचालित हैं.सेंसिटी के अनुसार, बिना कपड़े पहने 'फोटो खिंचवाने' की हरकतें, अक्सर सार्वजनिक रूप से शर्मसार करने और जबरन वसूली के लिए उपयोग की जाती है.
  • यह फर्म इस प्रक्रिया को एक प्रकार की संपादन सुविधा के रूप में वर्णित करती है जिसे स्मार्टफोन और पारंपरिक कंप्यूटर मालिकों द्वारा आसानी से उपयोग किया जा सकता है. उन्हें बस अपनी निजी इमेज की गैलरी से एक फोटो प्राप्त करना है और बॉट्स को डीपफेक उत्पन्न करने की अनुमति देना है. ये तस्वीरें इंटरनेट पर कहीं से भी हो सकती हैं.
  • जब आप लोगों के खतरे को कम करने या ब्लैकमेल करने पर विचार करते हैं तो निश्चित रूप से यह चिंता का एक कारण बन जाता है, हालांकि चैनल के व्यवस्थापक ने कहा है कि कुछ भी घटित होने के लिए छवियां पर्याप्त रूप से यथार्थवादी नहीं हैं.

जब 2017 के अंत में डीपफेक उभरना शुरू हुआ, मीडिया और राजनेताओं ने उन खतरों पर ध्यान केंद्रित किया जिसको वह एक दुष्प्रचार उपकरण के रूप में पेश कर सके. लेकिन डीपफेक का सबसे विनाशकारी उपयोग महिलाओं के खिलाफ हमेशा से होता रहा है: चाहे वह तकनीक का प्रयोग करना हो, बिना महिलाओं की सहमति के चित्रों का उपयोग करना या दुर्भावनापूर्ण रूप से इंटरनेट पर बिना सहमति अश्लील पोर्न फैलाना. डीप न्यूड उस तकनीक का एक विकास है जो डीपफेक की तुलना में उपयोग करने में आसान और तेज है. डीप न्यूड इस विचार के साथ भी फैलता है कि इस तकनीक का इस्तेमाल महिलाओं के शरीर पर स्वामित्व का दावा करने के अलावा किसी और चीज के लिए भी किया जा सकता है.

कर्नल इंद्रजीत आगे कहते हैं कि डीपफेक एक व्यापक, अंतर्राष्ट्रीय घटना बन गई है, लेकिन प्लेटफॉर्म मॉडरेशन और कानून अब तक इस तेज-तर्रार तकनीक के साथ बनाए रखने में विफल रहे हैं. इस बीच, महिलाओं को डीपफेक का शिकार किया जाता है और राजनीतिक, यूएस-केंद्रित राजनीतिक कथा के लिए पीछे छोड़ दिया जाता है. हालांकि, डीपफेक को ज्यादातर गैर-जिम्मेदार महिलाओं के खिलाफ हथियारबंद किया गया है, लेकिन ज्यादातर सुर्खियों और राजनीतिक डर ने डीपफेक की फेक समाचार क्षमता पर ध्यान केंद्रित किया है.

यह तो स्पष्ट है कि दुर्भाग्य से इस तरह के दुरुपयोग को रोकने योग्य नहीं होगा क्योंकि इस तकनीक का उपयोग हर किसी के लिए अधिक सुलभ हो रहा है, यह कुछ ऐसा है जो हमें कुछ चिंताजनक परिदृश्यों तक ले जा सकता है. हम जो उम्मीद करते हैं यह निश्चित रुप से होने वाला बहाव है जो कस्टम पोर्नोग्राफी, रिवेंज पोर्न, ब्लैकमेल, प्रतिष्ठा हमलों आदि के उद्देश्यों के लिए उपयोग की जाने वाली डीपफेक तकनीक को देखेगा. सेंसिटी की रिपोर्ट में यह भी कहा गया है कि 70% पीड़ित निजी नागरिक हैं, जबकि शेष 30% सेलिब्रिटी हैं.

एक बड़ी चिंता यह है कि ऐसे मामले भी हो सकते हैं जिनमें कुछ लोग इस सामग्री का उपयोग पैसे निकालने के लिए कर सकते हैं इसके अलावा जो लोग इमेज में दिखाई देते हैं उनको अपमानित करने के लिए धमकी दे सकते हैं.

पढे़ंः जानिए बिल गेट्स के जन्मदिन पर उनके बारे में कुछ रोचक बातें

Last Updated : Feb 16, 2021, 7:31 PM IST
ETV Bharat Logo

Copyright © 2024 Ushodaya Enterprises Pvt. Ltd., All Rights Reserved.