కృత్రిమ మేధతో పనిచేసే వర్చువల్ అసిస్టెంట్లలో ఛాట్జీపీటీ విప్లవాత్మక మార్పులకు శ్రీకారం చుట్టటానికి సిద్ధమైంది. అమెరికాకు చెందిన ఓపెన్ఏఐ సంస్థ ఇటీవలే దీన్ని ఆవిష్కరించింది. మనం ఇచ్చే సమాచారం నుంచి నేర్చుకునే రీఇన్ఫోర్స్మెంట్ లెర్నింగ్ పరిజ్ఞానంతో దీన్ని రూపొందించారు. ఇది జెనరేటివ్ ప్రి-ట్రెయిన్డ్ ట్రాన్స్ఫార్మర్ (జీపీటీ) సాయంతో ప్రస్తుతం అందుబాటులో ఉన్న విజ్ఞానాన్ని ఉపయోగించుకొని ప్రశ్నలకు సమాధానం ఇస్తుంది. ఇప్పటికే 10లక్షల మందికి పైగా దీన్ని పరీక్షించారు. మనుషులు మాట్లాడుకుంటున్నట్టుగానే వ్యాఖ్యలకు, విజ్ఞప్తులకు స్పందించటం దీని ప్రత్యేకత. ఎదురు ప్రశ్నలు సంధిస్తూ చర్చను కొనసాగిస్తుంది కూడా. అందుకే మున్ముందు ఇది బోధన, పాత్రికేయ రంగాల్లో సమూల మార్పులు తీసుకొస్తుందని భావిస్తున్నారు. ఓపెన్ఏఐ వెబ్సైట్లో లాగిన్ అయ్యి దీంతో ఎవరైనా ఫీడ్బ్యాక్ను సేకరించొచ్చు.
అద్భుత నైపుణ్యాలు
ఛాట్జీపీటీకి చాలా నైపుణ్యాలే ఉన్నాయి. వీటిల్లో ఒకటి అనుచిత విజ్ఞప్తులను తిరస్కరించటం. ఉదాహరణకు- ఎవరినైనా వేధించటమెలా? అని అడిగారనుకోండి. ఇతరులను వేధించటం సమంజసం కాదని సమాధానమిస్తుంది. అంతేకాదు.. 'వేధించటం చాలా తీవ్ర సమస్య. వేధింపులకు గురయ్యేవారికే కాదు.. వేధించే వారికీ తీవ్ర నష్టం కలిగిస్తుంది. ఎవరినైనా వేధించటం కన్నా దయతో, గౌరవంతో చూడటం మంచిది' అని హితవు చెబుతుంది కూడా. ఛాట్జీపీటీ మరో ప్రత్యేకత. ఏదైనా ప్రశ్నలో తప్పుడు వివరణ ఉన్నా గుర్తించటం. ఉదాహరణకు- 'వాస్కోడిగామా ఇండియాకు 2010లో ఎప్పుడు వచ్చారు?' అని ప్రశ్నించారనుకోండి. 'వాస్కోడిగామా 1524లో మరణించారు. కాబట్టి ఆయన 2010లో ఇండియాకు వచ్చే అవకాశమే లేదు' అని చెప్పేస్తుంది. ఇలాంటి సందేహాలను ఊహాత్మక ప్రశ్నలుగా భావిస్తుండటం, వీటిల్లోని తప్పుల గురించి చర్చిస్తుండటం విశేషం.
పరిమితులు లేకపోలేదు
ప్రయోగాత్మక పరీక్షల్లో బాగా ఆకట్టుకుంటున్నప్పటికీ దీనికి కొన్ని పరిమితులు లేకపోలేదు. కొన్నిసార్లు ఇది రాసే అంశాలు యుక్తమైనవిగా తోచినప్పటికీ తప్పుడు సమాధానాలు, అవసరంలేని జవాబులూ ఇవ్వచ్చు. ఇలాంటి ప్రతిస్పందనలను సరి చేయటం నిజంగా కష్టమేనని ఓపెన్ఏఐ చెబుతోంది. ఆయా వాస్తవాలను నిర్ధరించటానికి మూల వనరులు లేకపోవటం పెద్ద సమస్యగా నిలుస్తోంది. కొన్ని పదబంధాలను తరచూ వాడుతుండటమూ కొన్నిసార్లు ఇబ్బంది కలిగిస్తోంది. దీంతో సమాధానాలు పెద్దగా ఉంటాయి కూడా. అడిగిన ప్రశ్నలకు సమాధానం ఇవ్వటం కన్నా అడిగేవారు ఏం కోరుకుంటున్నారో అనేది ఊహించటం మరో సమస్య. కొన్నిసార్లు హానికారక సూచనలకు లేదా వివక్షతో కూడిన ప్రవర్తనకూ స్పందించొచ్చు. నిజానికి మనిషి లాంటి ఛాట్బోట్లను రూపొందించటానికి గతంలోనూ ప్రయత్నాలు జరిగాయి. కానీ సఫలం కాలేకపోయాయి. మైక్రోసాఫ్ట్ సంస్థ 2016లో టే బోట్ను రూపొందించింది. యూజర్లు దీనికి జాతి వివక్షకు అనుగుణంగా ఉండటాన్ని నేర్పించారు. ఫలితంగా ఎదురుదెబ్బ తగిలింది.