అది మీరే. అయినా ముఖం వేరే వాళ్లది! అది మీరు కాదు. అయినా మీరే! అయోమయంగా, గందరగోళంగా అనిపిస్తోందా? డీప్ఫేక్ పరిజ్ఞానం ఇలాంటి మాయే సృష్టిస్తుంది. ముఖాలను, గొంతులను మార్చేసి.. అనామకుడిని ప్రముఖుడని బోల్తా కొట్టించగలదు. హావభావాలను ఒలికిస్తూ నకిలీని నిజంగా.. అసత్యాన్ని సత్యంగా భ్రమింపజేయగలదు. ఇటీవల పారిశ్రామికవేత్త ఆనంద్ మహీంద్ర ట్విట్టర్లో పంచుకున్న వీడియోనే దీనికి సాక్ష్యం. ఒకే వ్యక్తి ఒకే సమయంలో షారుక్ ఖాన్, విరాట్ కోహ్లీ వంటి ప్రముఖుల రూపాల్లోకి మారి, మాట్లాడుతున్న వీడియో ఆశ్చర్యానికి, దిగ్భ్రాంతికి.. అదే సమయంలో ఆందోళనకూ గురిచేసింది. మున్ముందు ఏది అసలు వీడియోనో, ఏది నకిలీదో తేల్చుకోలేని రోజులు రావొచ్చనే చర్చకు దారితీసింది. వినోదంగా మొదలై.. రాజకీయ ప్రచారాల వరకూ చేరుకున్న ఈ మహా నకిలీ పరిజ్ఞానం కథేంటో చూద్దామా!
డీప్ఫేక్..
నకిలీ వీడియోలు, ఫొటోలను అచ్చంగా నిజమైనవే అనిపించేలా చేసే డీప్ఫేక్ ఓ కృత్రిమ మాధ్యమం (సింథటిక్ మీడియా). దీన్ని ఏఐ-జెనరేటెడ్ మీడియా, జెనరేటివ్ ఏఐ, పర్సనలైజ్డ్ మీడియా అనీ పిలుచుకుంటారు. ఇది వీడియో కావొచ్చు. ఆడియో కావొచ్చు. రెండింటి కలయికా కావొచ్చు. కానీ వీడియోలో కనిపించేది మాత్రం వాళ్లు కాదు. వారిలా కనిపించే మరొకరు.
ఇలాంటి నకిలీ మాధ్యమాలను సృష్టించటం కొత్తేమీ కాదు గానీ శక్తిమంతమైన కృత్రిమ మేధ (ఏఐ), మెషిన్ లెర్నింగ్ దీన్ని సులభతరం చేసేస్తున్నాయి. ఇది ఒకరి ముఖాన్ని మరొకరి ముఖంగా మార్చేసి.. తిమ్మిని బమ్మి చేసేయగలదు. ఎన్నడూ జరగని వాటిని జరిగినట్టు, ఎన్నడూ అనని మాటలను అన్నట్టు చేయగలదు. కావాలంటే చారిత్రక వ్యక్తులను మనతో మాట్లాడుతున్నట్టూ చూపించగలదు.
కంప్యూటర్ గ్రాఫిక్స్ స్ఫూర్తి..
డీప్ఫేక్ టెక్నాలజీకి స్ఫూర్తి ఒకరకంగా సంప్రదాయ కంప్యూటర్ గ్రాఫిక్స్ అనుకోవచ్చు. నిజానికి ఫొటోల మార్పిడి 19వ శతాబ్దంలోనే మొదలైంది. ఆ వెంటనే సినిమాల్లోకీ ప్రవేశించింది. ఎన్నో విజయవంతమైన హాలీవుడ్ సినిమాల్లో కంప్యూటర్ గ్రాఫిక్స్ను వాడుకోవటం తెలిసిందే. దీనికి ఎంతో ఖర్చవుతుంది. ఎంతో సమయం పడుతుంది. యానిమేషన్, కంప్యూటర్ గ్రాఫిక్స్ నిపుణుల బృందమూ కావాలి.
ఈ పద్ధతిలో నమ్మశక్యం కాని విధంగా, నిజమైనవేనని తలపించేట్టుగా వీడియోలను, ఫొటోలను తీర్చిదిద్దటం అందరికీ సాధ్యమయ్యేది కాదు. డీప్ఫేక్స్తో ఇది సుసాధ్యమైంది. ఇప్పుడు ఫోన్ యాప్లతోనే డీప్ఫేక్స్ను సృష్టించటమూ సాధ్యమవుతోంది. ఈ డీప్ఫేక్ దృశ్యాలు చూస్తుంటే అదేదో మంత్రజాలమనే అనిపిస్తుంది. డీప్ లెర్నింగ్, ఫేక్స్ పదాల కలయికతో దీని పేరు పుట్టుకొచ్చింది.
డీప్ లెర్నింగ్ అనేది ఒకరమైన మెషిన్ లెర్నింగ్. కృత్రిమ మేధ (ఏఐ) పద్ధతుల్లో ఇదొకటి. వీడియోలు, ఫొటోల్లో ఉన్న వ్యక్తులను గుర్తుపట్టే కంప్యూటర్ వ్యవస్థలకు ఉపయోగించే కంప్యూటర్ విజన్ రంగంలో ఈ డీప్ లెర్నింగ్ చాలా కీలకమైంది. స్వయంచాలిత వాహనాలు, ఫేషియల్ రికగ్నిషన్ వ్యవస్థల దగ్గర్నుంచి ఫొటోల్లోని స్నేహితులను ఆటోమేటిక్గ్గా ట్యాగ్ చేసే స్మార్ట్ఫోన్ యాప్స్ వరకూ అన్నింటికీ ఇదే మూలం.
తనకు తానే నేర్చుకుంటూ..
సంప్రదాయ మెషిన్ లెర్నింగ్ పద్ధతులు ఆల్గోరిథమ్ సాయంతో డేటాను విడమరచుకుంటాయి. మనం ఇచ్చే ఆదేశాలను బట్టి నడచుకుంటాయి. కానీ డీప్ లెర్నింగ్ అలా కాదు. ఇది చాలా అధునాతనమైంది. మనుషుల ప్రమేయం లేకుండానే డేటా ఆధారంగా తనకు తానే నేర్చుకుంటుంది. సొంత ఆల్గోరిథమ్లనూ మార్చుకుంటుంది. ఎప్పటికప్పుడు మెరుగు పడుతూ వస్తుంది. అవసరానికి, పరిస్థితులకు తగినట్టుగా పనిచేస్తుంది. అచ్చం మన మెదడులాగే అన్నమాట. స్వయంచాలిత వాహనాలు, ఫేషియల్ రికగ్నిషన్ పద్ధతులకు ఇదే ఆధారం. దీని మూలంగానే ఇవి తమకు 'కనిపించే' వస్తువులను, మనుషులను గుర్తిస్తున్నాయి.
రెండు ఏఐల కలయిక..
డీప్ఫేక్ పరిజ్ఞానం జెనరేటివ్ అడ్వర్సరియల్ నెట్వర్క్స్ (జీఏఎన్) టూల్స్ సాయంతో పనిచేస్తుంది. ఈ జీఏఎన్స్ను 2014లో యూనివర్సిటీ డి మాంట్రియల్కు చెందిన ఇయాన్ జె.గుడ్ఫెలో అనే కంప్యూటర్ శాస్త్రవేత్త, ఆయన బృందం రూపొందించింది. జీఏఎన్లో రెండు ఆర్టిఫిషియల్ న్యూరల్ నెట్వర్క్స్ (ఏఎన్ఎన్) ఉంటాయి. వీటిని ఒకరకంగా రెండు వేర్వేరు కృత్రిమ మేధ (ఏఐ) పరిజ్ఞానాలని చెప్పుకోవచ్చు.
ఒకటి ఫోర్జర్ ఏఐ, రెండోది తనిఖీ ఏఐ. జీఏఎన్స్ వీటిని ఒకదానికి ఎదురుగా మరోదాన్ని నిలబెడతాయి. ముందుగా వీటికి ఒకేరకం డేటాను ఇచ్చి, పరిశీలించమని సూచిస్తాయి. డీప్ఫేక్స్ విషయానికి వస్తే- ఎవరి నకిలీ వీడియోలను సృష్టించాలని అనుకుంటామో వారి ఫొటోలను డేటాగా అందజేయాల్సి ఉంటుందన్నమాట. ఎంత ఎక్కువ ఫొటోలు ఉంటే అంత ఎక్కువ నాణ్యమైన వీడియోను సృష్టిస్తాయి.
ఈ ఫొటో డేటాను రెండు కృత్రిమ మేధలూ సమీక్షిస్తాయి. ఆ వ్యక్తి ముఖ కవళికలను గుర్తించటం నేర్చుకుంటాయి. ఇక్కడ్నుంచి అసలు కథ మొదలవుతుంది. ఫోర్జర్ కృత్రిమ మేధ నకిలీ ఫొటోను సృష్టించే పని చేపడుతుంది. నకిలీ ఫొటోను సృష్టించాక, దాన్ని తనిఖీ కృత్రిమ మేధకు చూపిస్తుంది. దీని పని అది నకిలీదా? అసలైనదా? అని చెప్పటం.
ఆ ఫొటో నకిలీదని చెబితే ఫోర్జర్ ఏఐ తన 'బుర్ర'కు పదును పెడుతుంది. నకిలీదని గుర్తించటానికి తోడ్పడుతున్న అంశాలను పసిగట్టటం నేర్చుకుంటుంది. వాటిని సరిచేసి తిరిగి చూపిస్తుంది. అది అసలైన ఫొటోనే అని తనిఖీ ఏఐ అంగీకరించేంత వరకూ మెరుగులు దిద్దుకుంటూ వస్తుంది. ఇది అసలైనదే అని అంగీకరించిన తర్వాత అసలు పని ఆరంభిస్తుంది.
ఆ ఫొటో ఆధారంగా బోలెడన్ని ఫొటోలను సృష్టిస్తుంది. అనంతరం డీప్ఫేక్ వీడియోను తయారుచేసేవారి ముఖం స్థానంలో ఈ నకిలీ ఫొటోలను అప్లయి చేసి వీడియోను సృష్టిస్తుంది. అప్పటివరకూ నిశ్చలంగా ఉన్న ఫొటోలు వీడియో రూపంలోకి మారతాయి. అసలు వ్యక్తికి బదులు నకిలీ వ్యక్తుల ముఖంతో కూడిన వీడియోలు దర్శనమిస్తాయి. హావభావాలూ వ్యక్తమవుతాయి.
ఇప్పుడు నేరుగా వీడియోలనూ అప్పటికప్పుడు మార్చేసే వీడియో ఎడిటర్లూ అందుబాటులోకి వచ్చాయి. ప్రస్తుతం డీప్ఫేక్స్లో మొత్తం దశ్యాన్ని.. అంటే చుట్టుపక్కల పరిసరాలు, దుస్తుల వంటి వాటిని మార్చే పరిజ్ఞానం లేదు. కేవలం ముఖాన్ని మాత్రమే మారుస్తున్నాయి.
రాజకీయంగానూ..
- అమెరికా నటుడు జోర్డన్ పీలే, బజ్ఫీడ్, మంకీపా ప్రొడక్షన్స్ సంయుక్తంగా 2018లో యూట్యూబ్లో బరాక్ ఒబామా వీడియోను పోస్ట్ చేశారు. ఇందులో డోనాల్డ్ ట్రంప్ను ఒబామా శపిస్తుంటారు. ఇది డీప్ఫేక్స్తో ముంచుకొచ్చే ప్రమాదాల గురించి అప్రమత్తం చేసింది. దీన్ని ఎవరైనా ఎలాగైనా ఉపయోగించుకోవచ్చనే విషయాన్ని గుర్తుకుతెచ్చింది.
- రిప్రజెంట్స్ యూఎస్ అనే సంస్థ 2010లో ఉత్తర కొరియా అధ్యక్షుడు కిమ్ జోంగ్ ఉన్, రష్యా అధ్యక్షుడు వ్లాదిమిర్ పుతిన్లతో కూడిన డీప్ఫేక్ వీడియోలను యూట్యూబ్లో పోస్ట్ చేసింది. ప్రజాస్వామ్యం ఎంత బలహీనంగా ఉందో అమెరికన్లకు హెచ్చరించటానికి, విశ్వసనీయతతో సంబంధం లేకుండా మీడియా, వార్తా సంస్థలను ఎలా ప్రభావితం చేయొచ్చో వివరించటానికి దీన్ని వాడుకున్నారు.
- తాజాగా ఉక్రెయిన్ యుద్ధం సందర్భంగా ఆ దేశ అధ్యక్షుడు జెలెన్స్కీ తమ సైనికులను ఆయుధాలు వదిలేయాలనే సందేశం ఇస్తున్నట్టు డీప్ఫేక్ వీడియో ఒకటి సోషల్ మీడియాలో ప్రసారమైంది. దీన్ని రష్యా సోషల్ మీడియా ప్రచారం చేసింది. అనంతరం దీన్ని ఫేస్బుక్, యూట్యూబ్ తొలగించాయి.
- మనదేశంలోనూ ఎన్నికల ప్రచారంలో డీప్ఫేక్ను వాడుకున్నారు. 2020లో దిల్లీ శాసనసభ ఎన్నికల్లో రాష్ట్ర భాజపా అధ్యక్షుడు మనోజ్ తివారీ దిల్లీ ప్రభుత్వాన్ని విమర్శిస్తున్న వీడియో వాట్సప్లో బాగా ప్రసారమైంది. ఆయనకు హరియాణా భాష రాదు. అయినా ఆయన ఆ భాషలో మాట్లాడుతున్నట్టు వీడియోలో మార్చారు.
ఫేస్ స్వాప్ లైవ్తో ఆరంభం..
గుడ్ఫెలో గ్యాన్ వర్క్ను రూపొందించిన వెంటనే ఐటీ రంగం దీన్ని అనుకరించటం, ఇలాంటి కంప్యూటర్ విజన్ ప్రాసెస్ సాఫ్ట్వేర్లను తయారుచేయటం మొదలెట్టింది. డీప్ఫేక్ టెక్నాలజీతో కూడిన మొట్టమొదటి యాప్ 2015లోనే విడుదలైంది. దీని పేరు ఫేస్ స్వాప్ లైవ్. ఇది స్నేహితుల, కుటుంబ సభ్యుల ముఖాలను అప్పటికప్పుడు వేరేవారితో మార్చేయటం ఎంతగానో ఆకట్టుకుంది.
ఈ ఫొటోలను రికార్డు చేసే సదుపాయమూ ఉండటంతో చిన్న వీడియోలు సోషల్ మీడియాలో వైరల్గానూ మారిపోయాయి. ఫేస్ స్వాప్ లైవ్ యాప్ రెండు నెలలు తిరక్కుండానే యాపిల్, గూగుల్ యాప్ స్టోర్స్లో లభ్యం కావటం మొదలైంది. స్నాప్ఛాట్ యాప్ 2016లో ఫేస్స్వాప్ లెన్స్ను ప్రవేశపెట్టింది. ఇది థర్డ్ పార్టీ యాప్లతో పనిలేకుండా అందులోనే ఫేస్ స్వాప్లను సృష్టించి, షేర్ చేసుకోవటానికి వీలు కల్పించింది.
అనతికాలంలోనే ఈ యాప్లు ప్రపంచవ్యాప్తంగా ఆదరణ పొందాయి. ఫేస్యాప్ మరింత సంచలనం సృష్టించింది. ఇది కేవలం ముఖాలను మార్పిడి చేయటమే కాదు.. సెల్ఫీని అప్లోడ్ చేశాక ఫిల్టర్ల సాయంతో రూపు రేఖలనూ మార్చుకునే అవకాశం కల్పించింది. డీప్ఫేక్ కంటెంట్ క్రియేటర్లయితే ఎన్నడూ నటించని సినిమాల్లో హాలీవుడ్ నటులు కనిపించేలా చేస్తూ యూట్యూబ్ వీడియోలూ సృష్టించారు. వీటి స్ఫూర్తితోనే రీఫేస్ యాప్ పుట్టుకొచ్చింది. ఇది ఇష్టమైన నటుల ముఖానికి తమ ముఖాలను తగిలించుకునేలా చేసింది కూడా.
సరదాగా మొదలై..
ప్రస్తుతం డీప్ఫేక్స్ను చాలారంగాల్లో వాడుకుంటున్నారు. కంప్యూటర్ విజన్ వంటి కంప్యూటర్ సైన్స్లోనూ ఇది సాయం చేస్తోంది. సినిమాల్లోనూ ఎక్కువగానే వాడుకుంటున్నారు. నటీనటుల వయసును, ముఖాలను మార్చటం దీంతో చాలా తేలికైపోయింది. పొట్రెయిట్లను యానిమేషన్ రూపంలోకి మార్చేసి, అవి మాట్లాడేలా, పాడేలా చేస్తున్నారు. కంపెనీలు తమ ఉత్పత్తుల ప్రచారానికీ డీప్ఫేక్స్ సాయం తీసుకుంటున్నాయి. నటుల అవసరం లేకుండానే ప్రమోషన్ వీడియోలను సృష్టిస్తున్నాయి.
కొన్ని కంపెనీలు తమ ట్రెయినింగ్ వీడియోలకూ దీన్ని వర్తింపజేస్తున్నాయి. టెకీలు సరదా కోసమూ ఎక్కువగానే వాడుకుంటున్నారు. పాపులర్ సినిమా నటుల ముఖం మీద వేరే నటులు లేదా స్నేహితుల ముఖాలను అతికిస్తున్నారు. దురదృష్టవశాత్తు డీప్ఫేక్ పరిజ్ఞానాన్ని మోసం చేయటానికి, వదంతులను వ్యాప్తి చేయటానికీ వాడుకోవటం చూస్తున్నాం. నేరగాళ్లు కొందరు సెలబ్రిటీలను అశ్లీల చిత్రాల్లో జొప్పించటం, ఫేక్ వీడియోలతో బెదిరించటం వంటివీ చేస్తున్నారు.
దీంతో వ్యక్తుల గోప్యత, హక్కులు, భద్రతకు భంగం వాటిల్లుతోంది కూడా. కాపీ హక్కుల ఉల్లంఘనకూ దారితీస్తోంది. దీన్ని నివారించటానికి కొన్నిదేశాలు ప్రత్యేక చట్టాలనూ తీసుకొచ్చాయి. నకిలీ వార్తలను ప్రచారం చేయటం, వ్యక్తిగత హక్కులకు భంగం కలిగించటం ద్వారా వ్యక్తులకు, సమాజానికి చేటు చేస్తే నేరంగా పరిగణిస్తున్నారు. అందువల్ల నకిలీ వీడియోలను గుర్తించి, అప్రమత్తంగా ఉండటం ఎంతైనా అవసరం.
గుర్తించటమెలా?
ఎంత నాణ్యమైనవైనా నకిలీ వీడియోలు పరికరాలు సృష్టించేవే. అందువల్ల అన్నిసార్లూ సహజంగా ఉండకపోవచ్చు. వీడియో సెటప్లోనూ పొరపాట్లు ఉండొచ్చు. వీటి ఆధారంగా ఏది నకిలీనో, ఏది అసలో గుర్తించే అవకాశం లేకపోలేదు.
- మెషిన్ లెర్నింగ్ కనురెప్పలు ఆడించటాన్ని అంతగా పట్టించుకోదు. అందువల్ల రెప్పల కదలికలు, కళ్లు ఎబ్బెట్టుగా కనిపించొచ్చు. వెంట్రుకలు, నోరు, చుబుకం కొద్దిగా మసకగా కనిపించొచ్చు. విచిత్రంగా, మరీ అతిగా కదులుతున్నట్టు అనిపించొచ్చు.
- భావోద్వేగాలనూ పూర్తిస్థాయిలో పలికించకపోవచ్చు.
- వీడియోలోని వ్యక్తి తలను, శరీరాన్ని అసహజంగా, విచిత్రంగా కదిలిస్తుంటే డీప్ఫేక్ అయ్యిండొచ్చని అనుమానించాలి.
- రంగులు మారటం, లైటింగ్లో తేడాలు, నీడల వంటివీ నకిలీ వీడియోల జాడ పట్టిస్తాయి.
- వీడియోను సరిచేసే క్రమంలో డీప్ఫేక్ సాఫ్ట్వేర్ కొన్ని పొరపాట్లు చేయొచ్చు. దుస్తులు, ఆభరణాలు, బ్యాక్గ్రౌండ్ వస్తువుల ఆకారాలను మార్చేయొచ్చు.
- డీప్ఫేక్స్ కొన్నిసార్లు మాట, శబ్దాలను అస్తవ్యస్తం చేయొచ్చు. అప్పుడవి విచిత్రంగా అనిపిస్తాయి.
- అవసరమైతే మైక్రోసాఫ్ట్ అథెంటికేటర్, సెన్సిటీకి చెందిన ఫోరెన్సిక్ డీప్ఫేక్ డిటెక్షన్ వంటి టూల్స్ సాయంతో డీప్ఫేక్ వీడియోలను గుర్తించొచ్చు.
- ఇవీ చదవండి:
- ఆండ్రాయిడ్ గుత్తాధిపత్యంపై గురి.. సొంత మొబైల్ OSపై భారత్ యోచన..
- YouTube బోర్ కొట్టిందా?.. ఈ టాప్ వీడియో సైట్లను ట్రై చేయండి..