ETV Bharat / science-and-technology

'మహా నకిలీ' డీప్​ఫేక్ పరిజ్ఞానం.. ఒకే సమయంలో వివిధ రూపాల్లోకి మారి

ఒకే వ్యక్తి ఒకే సమయంలో ప్రముఖుల రూపాల్లోకి మారి మాట్లాడగలిగే మహా నకిలీ పరిజ్ఞానం వచ్చింది. ఇది ముఖాలను, గొంతులను మార్చేసి అనామకుడిని ప్రముఖుడిలా బోల్తా కొట్టించగలదు. మరి ఆ డీప్​ ఫేక్ పరిజ్ఞానం గురించి తెలుసుకుందామా..?

pros and cons of deepfake technology
డీప్​ ఫేక్ పరిజ్ఞానం
author img

By

Published : Jan 25, 2023, 9:41 AM IST

అది మీరే. అయినా ముఖం వేరే వాళ్లది! అది మీరు కాదు. అయినా మీరే! అయోమయంగా, గందరగోళంగా అనిపిస్తోందా? డీప్‌ఫేక్‌ పరిజ్ఞానం ఇలాంటి మాయే సృష్టిస్తుంది. ముఖాలను, గొంతులను మార్చేసి.. అనామకుడిని ప్రముఖుడని బోల్తా కొట్టించగలదు. హావభావాలను ఒలికిస్తూ నకిలీని నిజంగా.. అసత్యాన్ని సత్యంగా భ్రమింపజేయగలదు. ఇటీవల పారిశ్రామికవేత్త ఆనంద్‌ మహీంద్ర ట్విట్టర్​లో పంచుకున్న వీడియోనే దీనికి సాక్ష్యం. ఒకే వ్యక్తి ఒకే సమయంలో షారుక్‌ ఖాన్‌, విరాట్‌ కోహ్లీ వంటి ప్రముఖుల రూపాల్లోకి మారి, మాట్లాడుతున్న వీడియో ఆశ్చర్యానికి, దిగ్భ్రాంతికి.. అదే సమయంలో ఆందోళనకూ గురిచేసింది. మున్ముందు ఏది అసలు వీడియోనో, ఏది నకిలీదో తేల్చుకోలేని రోజులు రావొచ్చనే చర్చకు దారితీసింది. వినోదంగా మొదలై.. రాజకీయ ప్రచారాల వరకూ చేరుకున్న ఈ మహా నకిలీ పరిజ్ఞానం కథేంటో చూద్దామా!

డీప్‌ఫేక్‌..
నకిలీ వీడియోలు, ఫొటోలను అచ్చంగా నిజమైనవే అనిపించేలా చేసే డీప్‌ఫేక్‌ ఓ కృత్రిమ మాధ్యమం (సింథటిక్‌ మీడియా). దీన్ని ఏఐ-జెనరేటెడ్‌ మీడియా, జెనరేటివ్‌ ఏఐ, పర్సనలైజ్డ్‌ మీడియా అనీ పిలుచుకుంటారు. ఇది వీడియో కావొచ్చు. ఆడియో కావొచ్చు. రెండింటి కలయికా కావొచ్చు. కానీ వీడియోలో కనిపించేది మాత్రం వాళ్లు కాదు. వారిలా కనిపించే మరొకరు.

ఇలాంటి నకిలీ మాధ్యమాలను సృష్టించటం కొత్తేమీ కాదు గానీ శక్తిమంతమైన కృత్రిమ మేధ (ఏఐ), మెషిన్‌ లెర్నింగ్‌ దీన్ని సులభతరం చేసేస్తున్నాయి. ఇది ఒకరి ముఖాన్ని మరొకరి ముఖంగా మార్చేసి.. తిమ్మిని బమ్మి చేసేయగలదు. ఎన్నడూ జరగని వాటిని జరిగినట్టు, ఎన్నడూ అనని మాటలను అన్నట్టు చేయగలదు. కావాలంటే చారిత్రక వ్యక్తులను మనతో మాట్లాడుతున్నట్టూ చూపించగలదు.

కంప్యూటర్‌ గ్రాఫిక్స్‌ స్ఫూర్తి..
డీప్‌ఫేక్‌ టెక్నాలజీకి స్ఫూర్తి ఒకరకంగా సంప్రదాయ కంప్యూటర్‌ గ్రాఫిక్స్‌ అనుకోవచ్చు. నిజానికి ఫొటోల మార్పిడి 19వ శతాబ్దంలోనే మొదలైంది. ఆ వెంటనే సినిమాల్లోకీ ప్రవేశించింది. ఎన్నో విజయవంతమైన హాలీవుడ్‌ సినిమాల్లో కంప్యూటర్‌ గ్రాఫిక్స్‌ను వాడుకోవటం తెలిసిందే. దీనికి ఎంతో ఖర్చవుతుంది. ఎంతో సమయం పడుతుంది. యానిమేషన్‌, కంప్యూటర్‌ గ్రాఫిక్స్‌ నిపుణుల బృందమూ కావాలి.

ఈ పద్ధతిలో నమ్మశక్యం కాని విధంగా, నిజమైనవేనని తలపించేట్టుగా వీడియోలను, ఫొటోలను తీర్చిదిద్దటం అందరికీ సాధ్యమయ్యేది కాదు. డీప్‌ఫేక్స్‌తో ఇది సుసాధ్యమైంది. ఇప్పుడు ఫోన్‌ యాప్‌లతోనే డీప్‌ఫేక్స్‌ను సృష్టించటమూ సాధ్యమవుతోంది. ఈ డీప్‌ఫేక్‌ దృశ్యాలు చూస్తుంటే అదేదో మంత్రజాలమనే అనిపిస్తుంది. డీప్‌ లెర్నింగ్‌, ఫేక్స్‌ పదాల కలయికతో దీని పేరు పుట్టుకొచ్చింది.

డీప్‌ లెర్నింగ్‌ అనేది ఒకరమైన మెషిన్‌ లెర్నింగ్‌. కృత్రిమ మేధ (ఏఐ) పద్ధతుల్లో ఇదొకటి. వీడియోలు, ఫొటోల్లో ఉన్న వ్యక్తులను గుర్తుపట్టే కంప్యూటర్‌ వ్యవస్థలకు ఉపయోగించే కంప్యూటర్‌ విజన్‌ రంగంలో ఈ డీప్‌ లెర్నింగ్‌ చాలా కీలకమైంది. స్వయంచాలిత వాహనాలు, ఫేషియల్‌ రికగ్నిషన్‌ వ్యవస్థల దగ్గర్నుంచి ఫొటోల్లోని స్నేహితులను ఆటోమేటిక్‌గ్గా ట్యాగ్‌ చేసే స్మార్ట్‌ఫోన్‌ యాప్స్‌ వరకూ అన్నింటికీ ఇదే మూలం.

pros and cons of deepfake technology
డీప్ ఫేక్ పరిజ్ఞానం

తనకు తానే నేర్చుకుంటూ..
సంప్రదాయ మెషిన్‌ లెర్నింగ్‌ పద్ధతులు ఆల్గోరిథమ్‌ సాయంతో డేటాను విడమరచుకుంటాయి. మనం ఇచ్చే ఆదేశాలను బట్టి నడచుకుంటాయి. కానీ డీప్‌ లెర్నింగ్‌ అలా కాదు. ఇది చాలా అధునాతనమైంది. మనుషుల ప్రమేయం లేకుండానే డేటా ఆధారంగా తనకు తానే నేర్చుకుంటుంది. సొంత ఆల్గోరిథమ్‌లనూ మార్చుకుంటుంది. ఎప్పటికప్పుడు మెరుగు పడుతూ వస్తుంది. అవసరానికి, పరిస్థితులకు తగినట్టుగా పనిచేస్తుంది. అచ్చం మన మెదడులాగే అన్నమాట. స్వయంచాలిత వాహనాలు, ఫేషియల్‌ రికగ్నిషన్‌ పద్ధతులకు ఇదే ఆధారం. దీని మూలంగానే ఇవి తమకు 'కనిపించే' వస్తువులను, మనుషులను గుర్తిస్తున్నాయి.

రెండు ఏఐల కలయిక..
డీప్‌ఫేక్‌ పరిజ్ఞానం జెనరేటివ్‌ అడ్వర్సరియల్‌ నెట్‌వర్క్స్‌ (జీఏఎన్‌) టూల్స్‌ సాయంతో పనిచేస్తుంది. ఈ జీఏఎన్స్‌ను 2014లో యూనివర్సిటీ డి మాంట్రియల్‌కు చెందిన ఇయాన్‌ జె.గుడ్‌ఫెలో అనే కంప్యూటర్‌ శాస్త్రవేత్త, ఆయన బృందం రూపొందించింది. జీఏఎన్‌లో రెండు ఆర్టిఫిషియల్‌ న్యూరల్‌ నెట్‌వర్క్స్‌ (ఏఎన్‌ఎన్‌) ఉంటాయి. వీటిని ఒకరకంగా రెండు వేర్వేరు కృత్రిమ మేధ (ఏఐ) పరిజ్ఞానాలని చెప్పుకోవచ్చు.

ఒకటి ఫోర్జర్‌ ఏఐ, రెండోది తనిఖీ ఏఐ. జీఏఎన్స్‌ వీటిని ఒకదానికి ఎదురుగా మరోదాన్ని నిలబెడతాయి. ముందుగా వీటికి ఒకేరకం డేటాను ఇచ్చి, పరిశీలించమని సూచిస్తాయి. డీప్‌ఫేక్స్‌ విషయానికి వస్తే- ఎవరి నకిలీ వీడియోలను సృష్టించాలని అనుకుంటామో వారి ఫొటోలను డేటాగా అందజేయాల్సి ఉంటుందన్నమాట. ఎంత ఎక్కువ ఫొటోలు ఉంటే అంత ఎక్కువ నాణ్యమైన వీడియోను సృష్టిస్తాయి.

ఈ ఫొటో డేటాను రెండు కృత్రిమ మేధలూ సమీక్షిస్తాయి. ఆ వ్యక్తి ముఖ కవళికలను గుర్తించటం నేర్చుకుంటాయి. ఇక్కడ్నుంచి అసలు కథ మొదలవుతుంది. ఫోర్జర్‌ కృత్రిమ మేధ నకిలీ ఫొటోను సృష్టించే పని చేపడుతుంది. నకిలీ ఫొటోను సృష్టించాక, దాన్ని తనిఖీ కృత్రిమ మేధకు చూపిస్తుంది. దీని పని అది నకిలీదా? అసలైనదా? అని చెప్పటం.

ఆ ఫొటో నకిలీదని చెబితే ఫోర్జర్‌ ఏఐ తన 'బుర్ర'కు పదును పెడుతుంది. నకిలీదని గుర్తించటానికి తోడ్పడుతున్న అంశాలను పసిగట్టటం నేర్చుకుంటుంది. వాటిని సరిచేసి తిరిగి చూపిస్తుంది. అది అసలైన ఫొటోనే అని తనిఖీ ఏఐ అంగీకరించేంత వరకూ మెరుగులు దిద్దుకుంటూ వస్తుంది. ఇది అసలైనదే అని అంగీకరించిన తర్వాత అసలు పని ఆరంభిస్తుంది.

ఆ ఫొటో ఆధారంగా బోలెడన్ని ఫొటోలను సృష్టిస్తుంది. అనంతరం డీప్‌ఫేక్‌ వీడియోను తయారుచేసేవారి ముఖం స్థానంలో ఈ నకిలీ ఫొటోలను అప్లయి చేసి వీడియోను సృష్టిస్తుంది. అప్పటివరకూ నిశ్చలంగా ఉన్న ఫొటోలు వీడియో రూపంలోకి మారతాయి. అసలు వ్యక్తికి బదులు నకిలీ వ్యక్తుల ముఖంతో కూడిన వీడియోలు దర్శనమిస్తాయి. హావభావాలూ వ్యక్తమవుతాయి.

ఇప్పుడు నేరుగా వీడియోలనూ అప్పటికప్పుడు మార్చేసే వీడియో ఎడిటర్లూ అందుబాటులోకి వచ్చాయి. ప్రస్తుతం డీప్‌ఫేక్స్‌లో మొత్తం దశ్యాన్ని.. అంటే చుట్టుపక్కల పరిసరాలు, దుస్తుల వంటి వాటిని మార్చే పరిజ్ఞానం లేదు. కేవలం ముఖాన్ని మాత్రమే మారుస్తున్నాయి.

pros and cons of deepfake technology
డీప్ ఫేక్ పరిజ్ఞానం

రాజకీయంగానూ..

  • అమెరికా నటుడు జోర్డన్‌ పీలే, బజ్‌ఫీడ్‌, మంకీపా ప్రొడక్షన్స్‌ సంయుక్తంగా 2018లో యూట్యూబ్‌లో బరాక్‌ ఒబామా వీడియోను పోస్ట్‌ చేశారు. ఇందులో డోనాల్డ్‌ ట్రంప్‌ను ఒబామా శపిస్తుంటారు. ఇది డీప్‌ఫేక్స్‌తో ముంచుకొచ్చే ప్రమాదాల గురించి అప్రమత్తం చేసింది. దీన్ని ఎవరైనా ఎలాగైనా ఉపయోగించుకోవచ్చనే విషయాన్ని గుర్తుకుతెచ్చింది.
  • రిప్రజెంట్స్‌ యూఎస్‌ అనే సంస్థ 2010లో ఉత్తర కొరియా అధ్యక్షుడు కిమ్‌ జోంగ్‌ ఉన్‌, రష్యా అధ్యక్షుడు వ్లాదిమిర్‌ పుతిన్‌లతో కూడిన డీప్‌ఫేక్‌ వీడియోలను యూట్యూబ్‌లో పోస్ట్‌ చేసింది. ప్రజాస్వామ్యం ఎంత బలహీనంగా ఉందో అమెరికన్లకు హెచ్చరించటానికి, విశ్వసనీయతతో సంబంధం లేకుండా మీడియా, వార్తా సంస్థలను ఎలా ప్రభావితం చేయొచ్చో వివరించటానికి దీన్ని వాడుకున్నారు.
  • తాజాగా ఉక్రెయిన్‌ యుద్ధం సందర్భంగా ఆ దేశ అధ్యక్షుడు జెలెన్స్కీ తమ సైనికులను ఆయుధాలు వదిలేయాలనే సందేశం ఇస్తున్నట్టు డీప్‌ఫేక్‌ వీడియో ఒకటి సోషల్‌ మీడియాలో ప్రసారమైంది. దీన్ని రష్యా సోషల్‌ మీడియా ప్రచారం చేసింది. అనంతరం దీన్ని ఫేస్‌బుక్‌, యూట్యూబ్‌ తొలగించాయి.
  • మనదేశంలోనూ ఎన్నికల ప్రచారంలో డీప్‌ఫేక్‌ను వాడుకున్నారు. 2020లో దిల్లీ శాసనసభ ఎన్నికల్లో రాష్ట్ర భాజపా అధ్యక్షుడు మనోజ్‌ తివారీ దిల్లీ ప్రభుత్వాన్ని విమర్శిస్తున్న వీడియో వాట్సప్‌లో బాగా ప్రసారమైంది. ఆయనకు హరియాణా భాష రాదు. అయినా ఆయన ఆ భాషలో మాట్లాడుతున్నట్టు వీడియోలో మార్చారు.

ఫేస్‌ స్వాప్‌ లైవ్‌తో ఆరంభం..
గుడ్‌ఫెలో గ్యాన్‌ వర్క్‌ను రూపొందించిన వెంటనే ఐటీ రంగం దీన్ని అనుకరించటం, ఇలాంటి కంప్యూటర్‌ విజన్‌ ప్రాసెస్‌ సాఫ్ట్‌వేర్లను తయారుచేయటం మొదలెట్టింది. డీప్‌ఫేక్‌ టెక్నాలజీతో కూడిన మొట్టమొదటి యాప్‌ 2015లోనే విడుదలైంది. దీని పేరు ఫేస్‌ స్వాప్‌ లైవ్‌. ఇది స్నేహితుల, కుటుంబ సభ్యుల ముఖాలను అప్పటికప్పుడు వేరేవారితో మార్చేయటం ఎంతగానో ఆకట్టుకుంది.

ఈ ఫొటోలను రికార్డు చేసే సదుపాయమూ ఉండటంతో చిన్న వీడియోలు సోషల్‌ మీడియాలో వైరల్‌గానూ మారిపోయాయి. ఫేస్‌ స్వాప్‌ లైవ్‌ యాప్‌ రెండు నెలలు తిరక్కుండానే యాపిల్‌, గూగుల్‌ యాప్‌ స్టోర్స్‌లో లభ్యం కావటం మొదలైంది. స్నాప్‌ఛాట్‌ యాప్‌ 2016లో ఫేస్‌స్వాప్‌ లెన్స్‌ను ప్రవేశపెట్టింది. ఇది థర్డ్‌ పార్టీ యాప్‌లతో పనిలేకుండా అందులోనే ఫేస్‌ స్వాప్‌లను సృష్టించి, షేర్‌ చేసుకోవటానికి వీలు కల్పించింది.

అనతికాలంలోనే ఈ యాప్‌లు ప్రపంచవ్యాప్తంగా ఆదరణ పొందాయి. ఫేస్‌యాప్‌ మరింత సంచలనం సృష్టించింది. ఇది కేవలం ముఖాలను మార్పిడి చేయటమే కాదు.. సెల్ఫీని అప్‌లోడ్‌ చేశాక ఫిల్టర్ల సాయంతో రూపు రేఖలనూ మార్చుకునే అవకాశం కల్పించింది. డీప్‌ఫేక్‌ కంటెంట్‌ క్రియేటర్లయితే ఎన్నడూ నటించని సినిమాల్లో హాలీవుడ్‌ నటులు కనిపించేలా చేస్తూ యూట్యూబ్‌ వీడియోలూ సృష్టించారు. వీటి స్ఫూర్తితోనే రీఫేస్‌ యాప్‌ పుట్టుకొచ్చింది. ఇది ఇష్టమైన నటుల ముఖానికి తమ ముఖాలను తగిలించుకునేలా చేసింది కూడా.

సరదాగా మొదలై..
ప్రస్తుతం డీప్‌ఫేక్స్‌ను చాలారంగాల్లో వాడుకుంటున్నారు. కంప్యూటర్‌ విజన్‌ వంటి కంప్యూటర్‌ సైన్స్‌లోనూ ఇది సాయం చేస్తోంది. సినిమాల్లోనూ ఎక్కువగానే వాడుకుంటున్నారు. నటీనటుల వయసును, ముఖాలను మార్చటం దీంతో చాలా తేలికైపోయింది. పొట్రెయిట్లను యానిమేషన్‌ రూపంలోకి మార్చేసి, అవి మాట్లాడేలా, పాడేలా చేస్తున్నారు. కంపెనీలు తమ ఉత్పత్తుల ప్రచారానికీ డీప్‌ఫేక్స్‌ సాయం తీసుకుంటున్నాయి. నటుల అవసరం లేకుండానే ప్రమోషన్‌ వీడియోలను సృష్టిస్తున్నాయి.

కొన్ని కంపెనీలు తమ ట్రెయినింగ్‌ వీడియోలకూ దీన్ని వర్తింపజేస్తున్నాయి. టెకీలు సరదా కోసమూ ఎక్కువగానే వాడుకుంటున్నారు. పాపులర్‌ సినిమా నటుల ముఖం మీద వేరే నటులు లేదా స్నేహితుల ముఖాలను అతికిస్తున్నారు. దురదృష్టవశాత్తు డీప్‌ఫేక్‌ పరిజ్ఞానాన్ని మోసం చేయటానికి, వదంతులను వ్యాప్తి చేయటానికీ వాడుకోవటం చూస్తున్నాం. నేరగాళ్లు కొందరు సెలబ్రిటీలను అశ్లీల చిత్రాల్లో జొప్పించటం, ఫేక్‌ వీడియోలతో బెదిరించటం వంటివీ చేస్తున్నారు.

దీంతో వ్యక్తుల గోప్యత, హక్కులు, భద్రతకు భంగం వాటిల్లుతోంది కూడా. కాపీ హక్కుల ఉల్లంఘనకూ దారితీస్తోంది. దీన్ని నివారించటానికి కొన్నిదేశాలు ప్రత్యేక చట్టాలనూ తీసుకొచ్చాయి. నకిలీ వార్తలను ప్రచారం చేయటం, వ్యక్తిగత హక్కులకు భంగం కలిగించటం ద్వారా వ్యక్తులకు, సమాజానికి చేటు చేస్తే నేరంగా పరిగణిస్తున్నారు. అందువల్ల నకిలీ వీడియోలను గుర్తించి, అప్రమత్తంగా ఉండటం ఎంతైనా అవసరం.

గుర్తించటమెలా?
ఎంత నాణ్యమైనవైనా నకిలీ వీడియోలు పరికరాలు సృష్టించేవే. అందువల్ల అన్నిసార్లూ సహజంగా ఉండకపోవచ్చు. వీడియో సెటప్‌లోనూ పొరపాట్లు ఉండొచ్చు. వీటి ఆధారంగా ఏది నకిలీనో, ఏది అసలో గుర్తించే అవకాశం లేకపోలేదు.

  • మెషిన్‌ లెర్నింగ్‌ కనురెప్పలు ఆడించటాన్ని అంతగా పట్టించుకోదు. అందువల్ల రెప్పల కదలికలు, కళ్లు ఎబ్బెట్టుగా కనిపించొచ్చు. వెంట్రుకలు, నోరు, చుబుకం కొద్దిగా మసకగా కనిపించొచ్చు. విచిత్రంగా, మరీ అతిగా కదులుతున్నట్టు అనిపించొచ్చు.
  • భావోద్వేగాలనూ పూర్తిస్థాయిలో పలికించకపోవచ్చు.
  • వీడియోలోని వ్యక్తి తలను, శరీరాన్ని అసహజంగా, విచిత్రంగా కదిలిస్తుంటే డీప్‌ఫేక్‌ అయ్యిండొచ్చని అనుమానించాలి.
  • రంగులు మారటం, లైటింగ్‌లో తేడాలు, నీడల వంటివీ నకిలీ వీడియోల జాడ పట్టిస్తాయి.
  • వీడియోను సరిచేసే క్రమంలో డీప్‌ఫేక్‌ సాఫ్ట్‌వేర్‌ కొన్ని పొరపాట్లు చేయొచ్చు. దుస్తులు, ఆభరణాలు, బ్యాక్‌గ్రౌండ్‌ వస్తువుల ఆకారాలను మార్చేయొచ్చు.
  • డీప్‌ఫేక్స్‌ కొన్నిసార్లు మాట, శబ్దాలను అస్తవ్యస్తం చేయొచ్చు. అప్పుడవి విచిత్రంగా అనిపిస్తాయి.
  • అవసరమైతే మైక్రోసాఫ్ట్‌ అథెంటికేటర్‌, సెన్సిటీకి చెందిన ఫోరెన్సిక్‌ డీప్‌ఫేక్‌ డిటెక్షన్‌ వంటి టూల్స్‌ సాయంతో డీప్‌ఫేక్‌ వీడియోలను గుర్తించొచ్చు.
  • ఇవీ చదవండి:
  • ఆండ్రాయిడ్‌ గుత్తాధిపత్యంపై గురి.. సొంత మొబైల్​ OSపై భారత్​ యోచన..
  • YouTube​ బోర్ కొట్టిందా?.. ఈ టాప్ వీడియో సైట్లను ట్రై చేయండి..

అది మీరే. అయినా ముఖం వేరే వాళ్లది! అది మీరు కాదు. అయినా మీరే! అయోమయంగా, గందరగోళంగా అనిపిస్తోందా? డీప్‌ఫేక్‌ పరిజ్ఞానం ఇలాంటి మాయే సృష్టిస్తుంది. ముఖాలను, గొంతులను మార్చేసి.. అనామకుడిని ప్రముఖుడని బోల్తా కొట్టించగలదు. హావభావాలను ఒలికిస్తూ నకిలీని నిజంగా.. అసత్యాన్ని సత్యంగా భ్రమింపజేయగలదు. ఇటీవల పారిశ్రామికవేత్త ఆనంద్‌ మహీంద్ర ట్విట్టర్​లో పంచుకున్న వీడియోనే దీనికి సాక్ష్యం. ఒకే వ్యక్తి ఒకే సమయంలో షారుక్‌ ఖాన్‌, విరాట్‌ కోహ్లీ వంటి ప్రముఖుల రూపాల్లోకి మారి, మాట్లాడుతున్న వీడియో ఆశ్చర్యానికి, దిగ్భ్రాంతికి.. అదే సమయంలో ఆందోళనకూ గురిచేసింది. మున్ముందు ఏది అసలు వీడియోనో, ఏది నకిలీదో తేల్చుకోలేని రోజులు రావొచ్చనే చర్చకు దారితీసింది. వినోదంగా మొదలై.. రాజకీయ ప్రచారాల వరకూ చేరుకున్న ఈ మహా నకిలీ పరిజ్ఞానం కథేంటో చూద్దామా!

డీప్‌ఫేక్‌..
నకిలీ వీడియోలు, ఫొటోలను అచ్చంగా నిజమైనవే అనిపించేలా చేసే డీప్‌ఫేక్‌ ఓ కృత్రిమ మాధ్యమం (సింథటిక్‌ మీడియా). దీన్ని ఏఐ-జెనరేటెడ్‌ మీడియా, జెనరేటివ్‌ ఏఐ, పర్సనలైజ్డ్‌ మీడియా అనీ పిలుచుకుంటారు. ఇది వీడియో కావొచ్చు. ఆడియో కావొచ్చు. రెండింటి కలయికా కావొచ్చు. కానీ వీడియోలో కనిపించేది మాత్రం వాళ్లు కాదు. వారిలా కనిపించే మరొకరు.

ఇలాంటి నకిలీ మాధ్యమాలను సృష్టించటం కొత్తేమీ కాదు గానీ శక్తిమంతమైన కృత్రిమ మేధ (ఏఐ), మెషిన్‌ లెర్నింగ్‌ దీన్ని సులభతరం చేసేస్తున్నాయి. ఇది ఒకరి ముఖాన్ని మరొకరి ముఖంగా మార్చేసి.. తిమ్మిని బమ్మి చేసేయగలదు. ఎన్నడూ జరగని వాటిని జరిగినట్టు, ఎన్నడూ అనని మాటలను అన్నట్టు చేయగలదు. కావాలంటే చారిత్రక వ్యక్తులను మనతో మాట్లాడుతున్నట్టూ చూపించగలదు.

కంప్యూటర్‌ గ్రాఫిక్స్‌ స్ఫూర్తి..
డీప్‌ఫేక్‌ టెక్నాలజీకి స్ఫూర్తి ఒకరకంగా సంప్రదాయ కంప్యూటర్‌ గ్రాఫిక్స్‌ అనుకోవచ్చు. నిజానికి ఫొటోల మార్పిడి 19వ శతాబ్దంలోనే మొదలైంది. ఆ వెంటనే సినిమాల్లోకీ ప్రవేశించింది. ఎన్నో విజయవంతమైన హాలీవుడ్‌ సినిమాల్లో కంప్యూటర్‌ గ్రాఫిక్స్‌ను వాడుకోవటం తెలిసిందే. దీనికి ఎంతో ఖర్చవుతుంది. ఎంతో సమయం పడుతుంది. యానిమేషన్‌, కంప్యూటర్‌ గ్రాఫిక్స్‌ నిపుణుల బృందమూ కావాలి.

ఈ పద్ధతిలో నమ్మశక్యం కాని విధంగా, నిజమైనవేనని తలపించేట్టుగా వీడియోలను, ఫొటోలను తీర్చిదిద్దటం అందరికీ సాధ్యమయ్యేది కాదు. డీప్‌ఫేక్స్‌తో ఇది సుసాధ్యమైంది. ఇప్పుడు ఫోన్‌ యాప్‌లతోనే డీప్‌ఫేక్స్‌ను సృష్టించటమూ సాధ్యమవుతోంది. ఈ డీప్‌ఫేక్‌ దృశ్యాలు చూస్తుంటే అదేదో మంత్రజాలమనే అనిపిస్తుంది. డీప్‌ లెర్నింగ్‌, ఫేక్స్‌ పదాల కలయికతో దీని పేరు పుట్టుకొచ్చింది.

డీప్‌ లెర్నింగ్‌ అనేది ఒకరమైన మెషిన్‌ లెర్నింగ్‌. కృత్రిమ మేధ (ఏఐ) పద్ధతుల్లో ఇదొకటి. వీడియోలు, ఫొటోల్లో ఉన్న వ్యక్తులను గుర్తుపట్టే కంప్యూటర్‌ వ్యవస్థలకు ఉపయోగించే కంప్యూటర్‌ విజన్‌ రంగంలో ఈ డీప్‌ లెర్నింగ్‌ చాలా కీలకమైంది. స్వయంచాలిత వాహనాలు, ఫేషియల్‌ రికగ్నిషన్‌ వ్యవస్థల దగ్గర్నుంచి ఫొటోల్లోని స్నేహితులను ఆటోమేటిక్‌గ్గా ట్యాగ్‌ చేసే స్మార్ట్‌ఫోన్‌ యాప్స్‌ వరకూ అన్నింటికీ ఇదే మూలం.

pros and cons of deepfake technology
డీప్ ఫేక్ పరిజ్ఞానం

తనకు తానే నేర్చుకుంటూ..
సంప్రదాయ మెషిన్‌ లెర్నింగ్‌ పద్ధతులు ఆల్గోరిథమ్‌ సాయంతో డేటాను విడమరచుకుంటాయి. మనం ఇచ్చే ఆదేశాలను బట్టి నడచుకుంటాయి. కానీ డీప్‌ లెర్నింగ్‌ అలా కాదు. ఇది చాలా అధునాతనమైంది. మనుషుల ప్రమేయం లేకుండానే డేటా ఆధారంగా తనకు తానే నేర్చుకుంటుంది. సొంత ఆల్గోరిథమ్‌లనూ మార్చుకుంటుంది. ఎప్పటికప్పుడు మెరుగు పడుతూ వస్తుంది. అవసరానికి, పరిస్థితులకు తగినట్టుగా పనిచేస్తుంది. అచ్చం మన మెదడులాగే అన్నమాట. స్వయంచాలిత వాహనాలు, ఫేషియల్‌ రికగ్నిషన్‌ పద్ధతులకు ఇదే ఆధారం. దీని మూలంగానే ఇవి తమకు 'కనిపించే' వస్తువులను, మనుషులను గుర్తిస్తున్నాయి.

రెండు ఏఐల కలయిక..
డీప్‌ఫేక్‌ పరిజ్ఞానం జెనరేటివ్‌ అడ్వర్సరియల్‌ నెట్‌వర్క్స్‌ (జీఏఎన్‌) టూల్స్‌ సాయంతో పనిచేస్తుంది. ఈ జీఏఎన్స్‌ను 2014లో యూనివర్సిటీ డి మాంట్రియల్‌కు చెందిన ఇయాన్‌ జె.గుడ్‌ఫెలో అనే కంప్యూటర్‌ శాస్త్రవేత్త, ఆయన బృందం రూపొందించింది. జీఏఎన్‌లో రెండు ఆర్టిఫిషియల్‌ న్యూరల్‌ నెట్‌వర్క్స్‌ (ఏఎన్‌ఎన్‌) ఉంటాయి. వీటిని ఒకరకంగా రెండు వేర్వేరు కృత్రిమ మేధ (ఏఐ) పరిజ్ఞానాలని చెప్పుకోవచ్చు.

ఒకటి ఫోర్జర్‌ ఏఐ, రెండోది తనిఖీ ఏఐ. జీఏఎన్స్‌ వీటిని ఒకదానికి ఎదురుగా మరోదాన్ని నిలబెడతాయి. ముందుగా వీటికి ఒకేరకం డేటాను ఇచ్చి, పరిశీలించమని సూచిస్తాయి. డీప్‌ఫేక్స్‌ విషయానికి వస్తే- ఎవరి నకిలీ వీడియోలను సృష్టించాలని అనుకుంటామో వారి ఫొటోలను డేటాగా అందజేయాల్సి ఉంటుందన్నమాట. ఎంత ఎక్కువ ఫొటోలు ఉంటే అంత ఎక్కువ నాణ్యమైన వీడియోను సృష్టిస్తాయి.

ఈ ఫొటో డేటాను రెండు కృత్రిమ మేధలూ సమీక్షిస్తాయి. ఆ వ్యక్తి ముఖ కవళికలను గుర్తించటం నేర్చుకుంటాయి. ఇక్కడ్నుంచి అసలు కథ మొదలవుతుంది. ఫోర్జర్‌ కృత్రిమ మేధ నకిలీ ఫొటోను సృష్టించే పని చేపడుతుంది. నకిలీ ఫొటోను సృష్టించాక, దాన్ని తనిఖీ కృత్రిమ మేధకు చూపిస్తుంది. దీని పని అది నకిలీదా? అసలైనదా? అని చెప్పటం.

ఆ ఫొటో నకిలీదని చెబితే ఫోర్జర్‌ ఏఐ తన 'బుర్ర'కు పదును పెడుతుంది. నకిలీదని గుర్తించటానికి తోడ్పడుతున్న అంశాలను పసిగట్టటం నేర్చుకుంటుంది. వాటిని సరిచేసి తిరిగి చూపిస్తుంది. అది అసలైన ఫొటోనే అని తనిఖీ ఏఐ అంగీకరించేంత వరకూ మెరుగులు దిద్దుకుంటూ వస్తుంది. ఇది అసలైనదే అని అంగీకరించిన తర్వాత అసలు పని ఆరంభిస్తుంది.

ఆ ఫొటో ఆధారంగా బోలెడన్ని ఫొటోలను సృష్టిస్తుంది. అనంతరం డీప్‌ఫేక్‌ వీడియోను తయారుచేసేవారి ముఖం స్థానంలో ఈ నకిలీ ఫొటోలను అప్లయి చేసి వీడియోను సృష్టిస్తుంది. అప్పటివరకూ నిశ్చలంగా ఉన్న ఫొటోలు వీడియో రూపంలోకి మారతాయి. అసలు వ్యక్తికి బదులు నకిలీ వ్యక్తుల ముఖంతో కూడిన వీడియోలు దర్శనమిస్తాయి. హావభావాలూ వ్యక్తమవుతాయి.

ఇప్పుడు నేరుగా వీడియోలనూ అప్పటికప్పుడు మార్చేసే వీడియో ఎడిటర్లూ అందుబాటులోకి వచ్చాయి. ప్రస్తుతం డీప్‌ఫేక్స్‌లో మొత్తం దశ్యాన్ని.. అంటే చుట్టుపక్కల పరిసరాలు, దుస్తుల వంటి వాటిని మార్చే పరిజ్ఞానం లేదు. కేవలం ముఖాన్ని మాత్రమే మారుస్తున్నాయి.

pros and cons of deepfake technology
డీప్ ఫేక్ పరిజ్ఞానం

రాజకీయంగానూ..

  • అమెరికా నటుడు జోర్డన్‌ పీలే, బజ్‌ఫీడ్‌, మంకీపా ప్రొడక్షన్స్‌ సంయుక్తంగా 2018లో యూట్యూబ్‌లో బరాక్‌ ఒబామా వీడియోను పోస్ట్‌ చేశారు. ఇందులో డోనాల్డ్‌ ట్రంప్‌ను ఒబామా శపిస్తుంటారు. ఇది డీప్‌ఫేక్స్‌తో ముంచుకొచ్చే ప్రమాదాల గురించి అప్రమత్తం చేసింది. దీన్ని ఎవరైనా ఎలాగైనా ఉపయోగించుకోవచ్చనే విషయాన్ని గుర్తుకుతెచ్చింది.
  • రిప్రజెంట్స్‌ యూఎస్‌ అనే సంస్థ 2010లో ఉత్తర కొరియా అధ్యక్షుడు కిమ్‌ జోంగ్‌ ఉన్‌, రష్యా అధ్యక్షుడు వ్లాదిమిర్‌ పుతిన్‌లతో కూడిన డీప్‌ఫేక్‌ వీడియోలను యూట్యూబ్‌లో పోస్ట్‌ చేసింది. ప్రజాస్వామ్యం ఎంత బలహీనంగా ఉందో అమెరికన్లకు హెచ్చరించటానికి, విశ్వసనీయతతో సంబంధం లేకుండా మీడియా, వార్తా సంస్థలను ఎలా ప్రభావితం చేయొచ్చో వివరించటానికి దీన్ని వాడుకున్నారు.
  • తాజాగా ఉక్రెయిన్‌ యుద్ధం సందర్భంగా ఆ దేశ అధ్యక్షుడు జెలెన్స్కీ తమ సైనికులను ఆయుధాలు వదిలేయాలనే సందేశం ఇస్తున్నట్టు డీప్‌ఫేక్‌ వీడియో ఒకటి సోషల్‌ మీడియాలో ప్రసారమైంది. దీన్ని రష్యా సోషల్‌ మీడియా ప్రచారం చేసింది. అనంతరం దీన్ని ఫేస్‌బుక్‌, యూట్యూబ్‌ తొలగించాయి.
  • మనదేశంలోనూ ఎన్నికల ప్రచారంలో డీప్‌ఫేక్‌ను వాడుకున్నారు. 2020లో దిల్లీ శాసనసభ ఎన్నికల్లో రాష్ట్ర భాజపా అధ్యక్షుడు మనోజ్‌ తివారీ దిల్లీ ప్రభుత్వాన్ని విమర్శిస్తున్న వీడియో వాట్సప్‌లో బాగా ప్రసారమైంది. ఆయనకు హరియాణా భాష రాదు. అయినా ఆయన ఆ భాషలో మాట్లాడుతున్నట్టు వీడియోలో మార్చారు.

ఫేస్‌ స్వాప్‌ లైవ్‌తో ఆరంభం..
గుడ్‌ఫెలో గ్యాన్‌ వర్క్‌ను రూపొందించిన వెంటనే ఐటీ రంగం దీన్ని అనుకరించటం, ఇలాంటి కంప్యూటర్‌ విజన్‌ ప్రాసెస్‌ సాఫ్ట్‌వేర్లను తయారుచేయటం మొదలెట్టింది. డీప్‌ఫేక్‌ టెక్నాలజీతో కూడిన మొట్టమొదటి యాప్‌ 2015లోనే విడుదలైంది. దీని పేరు ఫేస్‌ స్వాప్‌ లైవ్‌. ఇది స్నేహితుల, కుటుంబ సభ్యుల ముఖాలను అప్పటికప్పుడు వేరేవారితో మార్చేయటం ఎంతగానో ఆకట్టుకుంది.

ఈ ఫొటోలను రికార్డు చేసే సదుపాయమూ ఉండటంతో చిన్న వీడియోలు సోషల్‌ మీడియాలో వైరల్‌గానూ మారిపోయాయి. ఫేస్‌ స్వాప్‌ లైవ్‌ యాప్‌ రెండు నెలలు తిరక్కుండానే యాపిల్‌, గూగుల్‌ యాప్‌ స్టోర్స్‌లో లభ్యం కావటం మొదలైంది. స్నాప్‌ఛాట్‌ యాప్‌ 2016లో ఫేస్‌స్వాప్‌ లెన్స్‌ను ప్రవేశపెట్టింది. ఇది థర్డ్‌ పార్టీ యాప్‌లతో పనిలేకుండా అందులోనే ఫేస్‌ స్వాప్‌లను సృష్టించి, షేర్‌ చేసుకోవటానికి వీలు కల్పించింది.

అనతికాలంలోనే ఈ యాప్‌లు ప్రపంచవ్యాప్తంగా ఆదరణ పొందాయి. ఫేస్‌యాప్‌ మరింత సంచలనం సృష్టించింది. ఇది కేవలం ముఖాలను మార్పిడి చేయటమే కాదు.. సెల్ఫీని అప్‌లోడ్‌ చేశాక ఫిల్టర్ల సాయంతో రూపు రేఖలనూ మార్చుకునే అవకాశం కల్పించింది. డీప్‌ఫేక్‌ కంటెంట్‌ క్రియేటర్లయితే ఎన్నడూ నటించని సినిమాల్లో హాలీవుడ్‌ నటులు కనిపించేలా చేస్తూ యూట్యూబ్‌ వీడియోలూ సృష్టించారు. వీటి స్ఫూర్తితోనే రీఫేస్‌ యాప్‌ పుట్టుకొచ్చింది. ఇది ఇష్టమైన నటుల ముఖానికి తమ ముఖాలను తగిలించుకునేలా చేసింది కూడా.

సరదాగా మొదలై..
ప్రస్తుతం డీప్‌ఫేక్స్‌ను చాలారంగాల్లో వాడుకుంటున్నారు. కంప్యూటర్‌ విజన్‌ వంటి కంప్యూటర్‌ సైన్స్‌లోనూ ఇది సాయం చేస్తోంది. సినిమాల్లోనూ ఎక్కువగానే వాడుకుంటున్నారు. నటీనటుల వయసును, ముఖాలను మార్చటం దీంతో చాలా తేలికైపోయింది. పొట్రెయిట్లను యానిమేషన్‌ రూపంలోకి మార్చేసి, అవి మాట్లాడేలా, పాడేలా చేస్తున్నారు. కంపెనీలు తమ ఉత్పత్తుల ప్రచారానికీ డీప్‌ఫేక్స్‌ సాయం తీసుకుంటున్నాయి. నటుల అవసరం లేకుండానే ప్రమోషన్‌ వీడియోలను సృష్టిస్తున్నాయి.

కొన్ని కంపెనీలు తమ ట్రెయినింగ్‌ వీడియోలకూ దీన్ని వర్తింపజేస్తున్నాయి. టెకీలు సరదా కోసమూ ఎక్కువగానే వాడుకుంటున్నారు. పాపులర్‌ సినిమా నటుల ముఖం మీద వేరే నటులు లేదా స్నేహితుల ముఖాలను అతికిస్తున్నారు. దురదృష్టవశాత్తు డీప్‌ఫేక్‌ పరిజ్ఞానాన్ని మోసం చేయటానికి, వదంతులను వ్యాప్తి చేయటానికీ వాడుకోవటం చూస్తున్నాం. నేరగాళ్లు కొందరు సెలబ్రిటీలను అశ్లీల చిత్రాల్లో జొప్పించటం, ఫేక్‌ వీడియోలతో బెదిరించటం వంటివీ చేస్తున్నారు.

దీంతో వ్యక్తుల గోప్యత, హక్కులు, భద్రతకు భంగం వాటిల్లుతోంది కూడా. కాపీ హక్కుల ఉల్లంఘనకూ దారితీస్తోంది. దీన్ని నివారించటానికి కొన్నిదేశాలు ప్రత్యేక చట్టాలనూ తీసుకొచ్చాయి. నకిలీ వార్తలను ప్రచారం చేయటం, వ్యక్తిగత హక్కులకు భంగం కలిగించటం ద్వారా వ్యక్తులకు, సమాజానికి చేటు చేస్తే నేరంగా పరిగణిస్తున్నారు. అందువల్ల నకిలీ వీడియోలను గుర్తించి, అప్రమత్తంగా ఉండటం ఎంతైనా అవసరం.

గుర్తించటమెలా?
ఎంత నాణ్యమైనవైనా నకిలీ వీడియోలు పరికరాలు సృష్టించేవే. అందువల్ల అన్నిసార్లూ సహజంగా ఉండకపోవచ్చు. వీడియో సెటప్‌లోనూ పొరపాట్లు ఉండొచ్చు. వీటి ఆధారంగా ఏది నకిలీనో, ఏది అసలో గుర్తించే అవకాశం లేకపోలేదు.

  • మెషిన్‌ లెర్నింగ్‌ కనురెప్పలు ఆడించటాన్ని అంతగా పట్టించుకోదు. అందువల్ల రెప్పల కదలికలు, కళ్లు ఎబ్బెట్టుగా కనిపించొచ్చు. వెంట్రుకలు, నోరు, చుబుకం కొద్దిగా మసకగా కనిపించొచ్చు. విచిత్రంగా, మరీ అతిగా కదులుతున్నట్టు అనిపించొచ్చు.
  • భావోద్వేగాలనూ పూర్తిస్థాయిలో పలికించకపోవచ్చు.
  • వీడియోలోని వ్యక్తి తలను, శరీరాన్ని అసహజంగా, విచిత్రంగా కదిలిస్తుంటే డీప్‌ఫేక్‌ అయ్యిండొచ్చని అనుమానించాలి.
  • రంగులు మారటం, లైటింగ్‌లో తేడాలు, నీడల వంటివీ నకిలీ వీడియోల జాడ పట్టిస్తాయి.
  • వీడియోను సరిచేసే క్రమంలో డీప్‌ఫేక్‌ సాఫ్ట్‌వేర్‌ కొన్ని పొరపాట్లు చేయొచ్చు. దుస్తులు, ఆభరణాలు, బ్యాక్‌గ్రౌండ్‌ వస్తువుల ఆకారాలను మార్చేయొచ్చు.
  • డీప్‌ఫేక్స్‌ కొన్నిసార్లు మాట, శబ్దాలను అస్తవ్యస్తం చేయొచ్చు. అప్పుడవి విచిత్రంగా అనిపిస్తాయి.
  • అవసరమైతే మైక్రోసాఫ్ట్‌ అథెంటికేటర్‌, సెన్సిటీకి చెందిన ఫోరెన్సిక్‌ డీప్‌ఫేక్‌ డిటెక్షన్‌ వంటి టూల్స్‌ సాయంతో డీప్‌ఫేక్‌ వీడియోలను గుర్తించొచ్చు.
  • ఇవీ చదవండి:
  • ఆండ్రాయిడ్‌ గుత్తాధిపత్యంపై గురి.. సొంత మొబైల్​ OSపై భారత్​ యోచన..
  • YouTube​ బోర్ కొట్టిందా?.. ఈ టాప్ వీడియో సైట్లను ట్రై చేయండి..
ETV Bharat Logo

Copyright © 2024 Ushodaya Enterprises Pvt. Ltd., All Rights Reserved.