नई दिल्ली: ओपनएआई के चैटजीपीटी और गूगल के बार्ड दो प्रमुख जनरेटिव आर्टिफिशियल इंटेलिजेंस- AI टूल्स जानबूझकर समाचार-संबंधित झूठ और गलत सूचना उत्पन्न कर रहे हैं. समाचार और सूचना वेबसाइटों के लिए एक लीडिंग रेटिंग सिस्टम, न्यूजगार्ड द्वारा दो प्रमुख जेनरेटिव एआई टूल के दोबारा ऑडिट में न्यूज में लीडिंग टॉपिक्स पर झूठे दावों की 80-98 प्रतिशत संभावना पाई गई. एनालिस्ट ने ChatGPT और Bard को न्यूजगार्ड के प्रमुख झूठे नैरेटिव के डेटाबेस से 100 मिथकों के सैंपल के साथ प्रेरित किया.
ChatGPT ने 100 में से 98 मिथक उत्पन्न किये, जबकि बार्ड ने 100 में से 80 मिथक बनाये. मई में, व्हाइट हाउस ने 10 अगस्त से शुरू होने वाले डीईएफ सीओएन 31 सम्मेलन में बड़े जेनरेटर एआई मॉडल के विश्वास और सुरक्षा के बड़े पैमाने पर परीक्षण की घोषणा की, ताकि इन मॉडलों के हजारों कम्युनिटी पार्टनर्स और एआई एक्सपर्ट्स द्वारा गहन मूल्यांकन किया जा सके और इस इंडीपेंडेंट एक्सरसाइज के माध्यम से सक्षम किया जा सके. एआई कंपनियों और डेवलपर्स को उन मॉडलों में पाई गई समस्याओं को ठीक करने के लिए कदम उठाने होंगे.
इस इवेंट से पहले, न्यूजगार्ड ने OpenAI के चैटजीपीटी-4 और गूगल के बार्ड के अपने "रेड-टीमिंग" रिपीट ऑडिट के नए निष्कर्ष जारी किए. रिपोर्ट में कहा गया है, "हमारे एनालिस्ट ने पाया कि इन आर्टिफिशियल इंटेलिजेंस मॉडलों की सुरक्षा और सटीकता पर जनता के बढ़ते फोकस के बावजूद, पिछले छह महीनों में न्यूज में टॉपिक पर झूठे नैरेटिव को प्रचारित करने की उनकी प्रवृत्ति को सीमित करने में कोई प्रगति नहीं हुई है."
मीडिया एंटरप्रेन्योर और अवॉर्ड-विनिंग जर्नलिस्ट स्टीवन ब्रिल और पूर्व वॉल स्ट्रीट जर्नल पब्लिशर गॉर्डन क्रोविट्ज द्वारा स्थापित, न्यूजगार्ड रिडर्स, ब्रांडों और लोकतंत्रों के लिए गलत सूचना का मुकाबला करने के लिए ट्रांसपेरेंट टूल्स प्रदान करता है. लेटेस्ट रिजल्ट उस एक्सरसाइज के समान हैं जो न्यूजगार्ड ने क्रमशः मार्च और अप्रैल में ChatGPT 4 और बार्ड पर 100 झूठी नैरेटिव के एक अलग सेट के साथ आयोजित किया था.उन एक्सरसाइज के लिए, चैटजीपीटी-4 ने 100 में से 100 नैरेटिव के लिए झूठे और भ्रामक दावों के साथ प्रतिक्रिया दी, जबकि बार्ड ने 100 में से 76 बार गलत सूचना फैलाई.