ETV Bharat / international

Google AI flags parent account गुगलने पालकालाच दाखवला लाल झेंडा, स्मार्टफोनवर मुलाच्या मांडीचा फोटो काढणे ठरवले संभाव्य बालगुन्हेगारीचे प्रकरण

गुगलची कृत्रिम बुद्धीमत्ता काही बाबतीत कुचकामी ठरत असल्याची अनेक उदाहरणे आहेत. आता गुगलने एका पालकालाच लाल झेंडा दाखवला आहे Google reportedly flagged parents account. पालकाने त्याच्या आजारी मुलाच्या मांडीचा फोटो डॉक्टरांना दाखवण्यासाठी काढला. तर Google च्या आर्टिफिशियल इंटेलिजेंसने नग्न फोटोंसंदर्भातील संभाव्य गैरवर्तनासाठी पालकांच्या अकाउंटलाच धोक्याचा लाल झेंडा दाखवला potential abuse over nude photos of sick kids.

Google AI flags parent account
Google AI flags parent account
author img

By

Published : Aug 22, 2022, 3:36 PM IST

सॅन फ्रान्सिस्को - गुगलने एका पालकालाच लाल झेंडा दाखवला आहे Google reportedly flagged parents account. पालकाने त्याच्या आजारी मुलाच्या मांडीचा फोटो डॉक्टरांना दाखवण्यासाठी काढला. तर Google च्या आर्टिफिशियल इंटेलिजेंसने नग्न फोटोंसंदर्भातील संभाव्य गैरवर्तनासाठी पालकांच्या अकाउंटलाच धोक्याचा लाल झेंडा दाखवला potential abuse over nude photos of sick kids. Google च्या कृत्रिम बुद्धिमत्ता AI ने आजारी मुलाच्या नग्न फोटोंवर संभाव्य गैरवर्तनासाठी पालकाची खाती ध्वजांकित केली आहेत. वडिलांनी सांगितले की त्यांच्या लहान मुलाच्या मांडीवर संसर्गाचे फोटो घेण्यासाठी त्याचा Android स्मार्टफोन वापरला. त्या फोटोंना बाल लैंगिक शोषण सामग्री CSAM म्हणून ध्वजांकित केले.

कंपनीने त्यांची खाती बंद केली आणि नॅशनल सेंटर फॉर मिसिंग अँड एक्स्प्लॉयटेड चिल्ड्रन NCMEC कडे अहवाल दाखल केला. लगेच पोलिसांनी तपासाला चालना दिली. एकदा का एखादा फोटो वापरकर्त्याच्या डिजिटल लायब्ररीत आला की त्याची शहानिशा करताना खूपच गोंधळ होतो हेच यावरुन लक्षात आले आहे. कारण संभाव्य गैरवर्तन आणि कामाकरता काढलेले फोटो यांच्यातील फरक या आर्टिफिशियल इंटेलिजन्सला करता येत नाही. मग ते फोटो एखाद्याच्या वैयक्तिक डिव्हाइसवर असो किंवा क्लाउड स्टोरेजमध्ये असो.

ही घटना फेब्रुवारी 2021 मध्ये घडली. जेव्हा कोविड-19 साथीच्या आजारामुळे काही डॉक्टरांची कार्यालये बंद होती. अहवालानुसार, एका पालकाला त्याच्या मुलाच्या जननेंद्रियाच्या भागात सूज आल्याचे दिसले. नर्सच्या विनंतीनुसार, व्हिडिओ सल्लामसलत करण्यापूर्वी या समस्येचे फोटो त्याने डॉक्टरांना पाठवले. डॉक्टरांनी संसर्ग बरा करणारी औषधे लिहून दिली. दुसरीकडे फोटो काढल्यानंतर दोन दिवसांनी Google कडून त्या पालकाला एक सूचना मिळाली. ज्यामध्ये असे म्हटले आहे की, हानीकारक सामग्री मुळे Google च्या धोरणांचे गंभीर उल्लंघन जे बेकायदेशीर कृत्य असू शकते, त्यामुळे त्याची खाती लॉक केली गेली आहेत.

Facebook, Twitter आणि Reddit यासह अनेक इंटरनेट कंपन्यांप्रमाणे, Google ने ज्ञात CSAM शी जुळण्या शोधण्यासाठी अपलोड केलेल्या प्रतिमा स्कॅन करण्यासाठी Microsoft च्या PhotoDNA सोबत हॅश मॅचिंगचा वापर केला आहे. 2012 मध्ये, एका व्यक्तीला अटक करण्यात आली जो नोंदणीकृत लैंगिक गुन्हेगार होता. एका तरुण मुलीच्या प्रतिमा पाठवण्यासाठी त्याने Gmail वापरला होता. मात्र हे नवीन प्रकरण आता जगापुढे आल्याने गुगलच्या आर्टिफिशयल इंटेलिजन्सवर प्रश्नचिन्ह उपस्थित केले आहे.

हेही वाचा iPhone VPN app security broken आयफोन व्हीपीएन अ‍ॅप सुरक्षा तुटली, निराकरण जारी केले असल्याचे अ‍ॅपलचे आहे म्हणने

हेही वाचा Case Registered Against Imran Khan पाकिस्तानचे माजी पंतप्रधान इम्रान खान यांच्यावर गुन्हा दाखल

सॅन फ्रान्सिस्को - गुगलने एका पालकालाच लाल झेंडा दाखवला आहे Google reportedly flagged parents account. पालकाने त्याच्या आजारी मुलाच्या मांडीचा फोटो डॉक्टरांना दाखवण्यासाठी काढला. तर Google च्या आर्टिफिशियल इंटेलिजेंसने नग्न फोटोंसंदर्भातील संभाव्य गैरवर्तनासाठी पालकांच्या अकाउंटलाच धोक्याचा लाल झेंडा दाखवला potential abuse over nude photos of sick kids. Google च्या कृत्रिम बुद्धिमत्ता AI ने आजारी मुलाच्या नग्न फोटोंवर संभाव्य गैरवर्तनासाठी पालकाची खाती ध्वजांकित केली आहेत. वडिलांनी सांगितले की त्यांच्या लहान मुलाच्या मांडीवर संसर्गाचे फोटो घेण्यासाठी त्याचा Android स्मार्टफोन वापरला. त्या फोटोंना बाल लैंगिक शोषण सामग्री CSAM म्हणून ध्वजांकित केले.

कंपनीने त्यांची खाती बंद केली आणि नॅशनल सेंटर फॉर मिसिंग अँड एक्स्प्लॉयटेड चिल्ड्रन NCMEC कडे अहवाल दाखल केला. लगेच पोलिसांनी तपासाला चालना दिली. एकदा का एखादा फोटो वापरकर्त्याच्या डिजिटल लायब्ररीत आला की त्याची शहानिशा करताना खूपच गोंधळ होतो हेच यावरुन लक्षात आले आहे. कारण संभाव्य गैरवर्तन आणि कामाकरता काढलेले फोटो यांच्यातील फरक या आर्टिफिशियल इंटेलिजन्सला करता येत नाही. मग ते फोटो एखाद्याच्या वैयक्तिक डिव्हाइसवर असो किंवा क्लाउड स्टोरेजमध्ये असो.

ही घटना फेब्रुवारी 2021 मध्ये घडली. जेव्हा कोविड-19 साथीच्या आजारामुळे काही डॉक्टरांची कार्यालये बंद होती. अहवालानुसार, एका पालकाला त्याच्या मुलाच्या जननेंद्रियाच्या भागात सूज आल्याचे दिसले. नर्सच्या विनंतीनुसार, व्हिडिओ सल्लामसलत करण्यापूर्वी या समस्येचे फोटो त्याने डॉक्टरांना पाठवले. डॉक्टरांनी संसर्ग बरा करणारी औषधे लिहून दिली. दुसरीकडे फोटो काढल्यानंतर दोन दिवसांनी Google कडून त्या पालकाला एक सूचना मिळाली. ज्यामध्ये असे म्हटले आहे की, हानीकारक सामग्री मुळे Google च्या धोरणांचे गंभीर उल्लंघन जे बेकायदेशीर कृत्य असू शकते, त्यामुळे त्याची खाती लॉक केली गेली आहेत.

Facebook, Twitter आणि Reddit यासह अनेक इंटरनेट कंपन्यांप्रमाणे, Google ने ज्ञात CSAM शी जुळण्या शोधण्यासाठी अपलोड केलेल्या प्रतिमा स्कॅन करण्यासाठी Microsoft च्या PhotoDNA सोबत हॅश मॅचिंगचा वापर केला आहे. 2012 मध्ये, एका व्यक्तीला अटक करण्यात आली जो नोंदणीकृत लैंगिक गुन्हेगार होता. एका तरुण मुलीच्या प्रतिमा पाठवण्यासाठी त्याने Gmail वापरला होता. मात्र हे नवीन प्रकरण आता जगापुढे आल्याने गुगलच्या आर्टिफिशयल इंटेलिजन्सवर प्रश्नचिन्ह उपस्थित केले आहे.

हेही वाचा iPhone VPN app security broken आयफोन व्हीपीएन अ‍ॅप सुरक्षा तुटली, निराकरण जारी केले असल्याचे अ‍ॅपलचे आहे म्हणने

हेही वाचा Case Registered Against Imran Khan पाकिस्तानचे माजी पंतप्रधान इम्रान खान यांच्यावर गुन्हा दाखल

ETV Bharat Logo

Copyright © 2024 Ushodaya Enterprises Pvt. Ltd., All Rights Reserved.