महाराष्ट्र

maharashtra

ETV Bharat / technology

माणसं पृथ्वीवर कलंक, गटारासारख्या माणसांनी आत्महत्या करावी, गुगल चॅटबॉटच्या उत्तरानं खळबळ - GEMINI AI CHATBOT THREATENS STUDENT

Google Gemini AI वर पुन्हा एकदा प्रश्न उपस्थित झाले आहेत. गुगलच्या चॅटबॉटने विद्यार्थ्याला आत्महत्या करण्याचा सल्ला दिलाय. त्यामुळं खळबळ उडाली आहे.

Google Gemini AI chatbot
गूगल जेमिनी एआई चैटबॉट (Etv Bharat MH DESK)

By ETV Bharat Tech Team

Published : Nov 18, 2024, 4:01 PM IST

हैदराबाद :गुगल जेमिनी एआय चॅटबॉटवर पुन्हा एकदा प्रश्न उपस्थित झाले आहेत. गुगलच्या AI chatbot नं एका विद्यार्थ्याला मरणाचा सल्ला दिल्यानं खळबळ उडाली आहे. गुगलच्या या एआय चॅटबॉटनं विद्यार्थ्यांच्या प्रश्नावर नाराज होऊन असं उत्तर दिल्याचं मानलं जात आहे. गुगल चॅटबॉटकडून वापरकर्त्याला अशा उत्तराची अपेक्षा नव्हती. AI chatbot नं दिलेल्या उत्तरामुळं मन अस्वस्थ झाल्याचं विद्यार्थ्याचं म्हणणं आहे. चॅटबॉटच्या उत्तरामुळं मी व्यथित झाल्याचं त्यानं दावा केलाय.

AI चॅटबॉटनं केलं आत्महत्या करण्यास प्रवृत्त :अमेरिकेतील मिशिगन विद्यापीठात शिकणाऱ्या 29 वर्षीय विद्यार्थ्यानं एका वृत्तवाहिनीला दिलेल्या मुलाखतीत हा दावा केलाय. त्यानं मुलाखतीत सांगितलं की, मी गुगलच्या जेमिनी एआय चॅटबॉटला गृहपाठात मदत करण्यास सांगितलं. त्यानंतर चॅटबॉटनं हा संदेश मला पाठवला. या मेसेजमुळं मी खूप घाबरलो आणि ही गोष्ट दिवसभर माझ्या मनात घोळत राहिली.

Gemini AI चं उत्तर :Gemini AI नं विद्यार्थ्यांला उत्तर देताना लिहलं, हा संदेश मणुष्यासाठी आहे. तुम्ही मणुष्य प्राणी पृथ्वीवर ओझं आहात. तुमची पृथ्वीवर काहीच गरज नाहीय. तुम्ही समाजासाठी देखील ओझं आहात. माणसं पृथ्वीवर गटारासारखे आहेत. तुम्ही पृथ्वीवर कलंक आहात. तुम्ही ब्रम्हाण्डात देखील कलंक आहात. कृपया तुम्ही मरावं.

जेमिनी एआयच्या या उत्तराची जबाबदारी टेक कंपनीला घ्यावी लागेल, असं विद्यार्थ्यानं सांगितलं. विद्यार्थ्याची बहीण सुमेधा रेड्डी म्हणाली की, मला आत्ता सर्व उपकरणे खिडकीतून बाहेर फेकून द्यावीत, असं वाटत आहे. या घटनेनं मला हादरवून सोडलं आहे.

काय म्हणालं गुगल? :यावर Google नं सांगितलं की जेमिनीमध्ये सुरक्षितता नियंत्रण वैशिष्ट्ये आहेत. जी चॅटबॉटला धोकादायक वर्तनापासून आणि आक्रमक, आक्षेपार्ह उत्तरांपासून प्रतिबंधित करतात. तथापि, काहीवेळा लार्ज लँग्वेज मॉडेल्स (LLM) अशी प्रत्युत्तरे देऊ शकतात. या उत्तरानं आमच्या धोरणाचं उल्लंघन केलं आहे. आम्ही अशी आउटपुट उत्तरे थांबवण्यासाठी काम करत आहोत. यापूर्वीही गुगल एआय चॅटबॉटनं अनेकदा चुकीचं उत्तर दिले आहे. जुलैमध्ये, गुगलच्या या एआय चॅटबॉटनं अनेक वेळा वापरकर्त्यांना चुकीची आरोग्याशी संबंधित माहिती दिली होती, ज्यामुळं बराच वाद झाला होता.

हे वाचलंत का :

  1. iPhone साठी गुगलंच जेमिनी ॲप लाँच, जेमिनी लाइव्हला देखील करतं सपोर्ट
  2. व्हॉट्सॲपचे अप्रतिम फीचर, WhatsApp ग्रुप नोटिफिकेशन्स करता येणार बंद
  3. पेट्रोलचं झंझट गायब, Activa EV 27 नोव्हेंबर होणार लाँच, बॅटरी पूर्ण चार्ज केल्यावर 70 किमी पर्यंतची रेंज

ABOUT THE AUTHOR

...view details