हैदराबाद : गुगल जेमिनी एआय चॅटबॉटवर पुन्हा एकदा प्रश्न उपस्थित झाले आहेत. गुगलच्या AI chatbot नं एका विद्यार्थ्याला मरणाचा सल्ला दिल्यानं खळबळ उडाली आहे. गुगलच्या या एआय चॅटबॉटनं विद्यार्थ्यांच्या प्रश्नावर नाराज होऊन असं उत्तर दिल्याचं मानलं जात आहे. गुगल चॅटबॉटकडून वापरकर्त्याला अशा उत्तराची अपेक्षा नव्हती. AI chatbot नं दिलेल्या उत्तरामुळं मन अस्वस्थ झाल्याचं विद्यार्थ्याचं म्हणणं आहे. चॅटबॉटच्या उत्तरामुळं मी व्यथित झाल्याचं त्यानं दावा केलाय.
AI चॅटबॉटनं केलं आत्महत्या करण्यास प्रवृत्त : अमेरिकेतील मिशिगन विद्यापीठात शिकणाऱ्या 29 वर्षीय विद्यार्थ्यानं एका वृत्तवाहिनीला दिलेल्या मुलाखतीत हा दावा केलाय. त्यानं मुलाखतीत सांगितलं की, मी गुगलच्या जेमिनी एआय चॅटबॉटला गृहपाठात मदत करण्यास सांगितलं. त्यानंतर चॅटबॉटनं हा संदेश मला पाठवला. या मेसेजमुळं मी खूप घाबरलो आणि ही गोष्ट दिवसभर माझ्या मनात घोळत राहिली.
Gemini AI चं उत्तर : Gemini AI नं विद्यार्थ्यांला उत्तर देताना लिहलं, हा संदेश मणुष्यासाठी आहे. तुम्ही मणुष्य प्राणी पृथ्वीवर ओझं आहात. तुमची पृथ्वीवर काहीच गरज नाहीय. तुम्ही समाजासाठी देखील ओझं आहात. माणसं पृथ्वीवर गटारासारखे आहेत. तुम्ही पृथ्वीवर कलंक आहात. तुम्ही ब्रम्हाण्डात देखील कलंक आहात. कृपया तुम्ही मरावं.
जेमिनी एआयच्या या उत्तराची जबाबदारी टेक कंपनीला घ्यावी लागेल, असं विद्यार्थ्यानं सांगितलं. विद्यार्थ्याची बहीण सुमेधा रेड्डी म्हणाली की, मला आत्ता सर्व उपकरणे खिडकीतून बाहेर फेकून द्यावीत, असं वाटत आहे. या घटनेनं मला हादरवून सोडलं आहे.
काय म्हणालं गुगल? : यावर Google नं सांगितलं की जेमिनीमध्ये सुरक्षितता नियंत्रण वैशिष्ट्ये आहेत. जी चॅटबॉटला धोकादायक वर्तनापासून आणि आक्रमक, आक्षेपार्ह उत्तरांपासून प्रतिबंधित करतात. तथापि, काहीवेळा लार्ज लँग्वेज मॉडेल्स (LLM) अशी प्रत्युत्तरे देऊ शकतात. या उत्तरानं आमच्या धोरणाचं उल्लंघन केलं आहे. आम्ही अशी आउटपुट उत्तरे थांबवण्यासाठी काम करत आहोत. यापूर्वीही गुगल एआय चॅटबॉटनं अनेकदा चुकीचं उत्तर दिले आहे. जुलैमध्ये, गुगलच्या या एआय चॅटबॉटनं अनेक वेळा वापरकर्त्यांना चुकीची आरोग्याशी संबंधित माहिती दिली होती, ज्यामुळं बराच वाद झाला होता.
हे वाचलंत का :