ETV Bharat / science-and-technology

सब कुछ करने में सक्षम होगा डीप लर्निंगः ज्यॉफ हिंटन - इमेजनेट

आधुनिक एआई क्रांति एक अस्पष्ट शोध प्रतियोगिता के दौरान शुरू हुई. यह 2012 के वार्षिक इमेजनेट प्रतियोगिता का तीसरा वर्ष था, जिसने टीमों को कंप्यूटर विजन सिस्टम बनाने की चुनौती दी थी जो जानवरों से लेकर इंसानों और परिदृश्यों तक, 1,000 वस्तुओं को पहचान लेगा.

ai,  Deep learning
सब कुछ करने में सक्षम होगा डीप लर्निंगः ज्यॉफ हिंटन
author img

By

Published : Nov 4, 2020, 10:58 PM IST

Updated : Feb 16, 2021, 7:31 PM IST

एमआईटी टेक्नोलॉजी रिव्यू,यूएसएः पहले दो वर्षों में, सर्वश्रेष्ठ टीमें 75% सटीकता तक पहुंचने में विफल रही थीं, लेकिन तीसरे में तीन शोधकर्ताओं जिसमें एक प्रोफेसर और उनके छात्र शामिल थे. उनके एक बैंड ने अचानक इस छत को उड़ा दिया. उन्होंने प्रतियोगिता में 10.8 प्रतिशत अंक हासिल किए. वह प्रोफेसर जेफ्री हिंटन थे और उन्होंने जिस तकनीक का इस्तेमाल किया था, उसे डीप लर्निंग कहा जाता था.

हिंटन वास्तव में 1980 के दशक से डीप लर्निंग के साथ काम कर रहा थे, लेकिन इसकी प्रभावशीलता डेटा और कम्प्यूटेशनल शक्ति की कमी से सीमित थी. तकनीक में उनके दृढ़ विश्वास ने अंत में उन्हें बड़े पैमाने पर लाभ दिया. इमेजनेट प्रतियोगिता का चौथा वर्ष, लगभग हर डीप लर्निंग सीखने और चमत्कारी सटीकता हासिल करने का उपयोग कर रही थी. जल्द ही इमेज रेकग्निशन से परे और उद्योगों की एक विस्तृत श्रृंखला के अंदर कार्यों के लिए पर्याप्त डीप लर्निंग को लागू किया जा रहा था.

पिछले साल, इस क्षेत्र में अपने मूलभूत योगदान के लिए, हिंटन को अन्य एआई अग्रदूतों यान लेचुन और योशुआ बेंगियो के साथ ट्यूरिंग अवार्ड से सम्मानित किया गया था. जहां वह कुछ सवालों के जवाब देते है, जो इस प्रकार हैः-

क्या डीप लर्निंग मानव बुद्धि को दोहराने के लिए पर्याप्त होगा?

मेरा मानना ​​है कि डीप लर्निंग सब कुछ करने में सक्षम होने जा रही है लेकिन, मुझे लगता है कि अभी कुछ वैचारिक सफलताओं के होने वाले हैं. उदाहरण के लिए, 2017 में आशीष वासवानी एट एएल ने ट्रांसफार्मर पेश कियी जो शब्दार्थों का प्रतिनिधित्व करने वाले अच्छे वैक्टर प्राप्त करते हैं. यह एक वैचारिक सफलता थी. अब इसका उपयोग लगभग सभी बेहतरीन प्राकृतिक-भाषा प्रसंस्करण में किया जाता है. हमें उस तरह के और अधिक सफलताओं की आवश्यकता होगी.

और अगर हमारे पास वे सफलताए हैं, तो क्या हम डीप लर्निंग के माध्यम से सभी मानवीय बुद्धिमत्ता का अनुमान लगा पाएंगे?

हां, विशेष रूप से इसलिए कि कैसे आप न्यूरल गतिविधि के बड़े वैक्टर रीजन के साथ चीजों को लागू करेंगे, लेकिन हमें बड़े पैमाने पर वृद्धि की आवश्यकता है. मानव मस्तिष्क में लगभग 100 ट्रिलियन पैरामीटर या सिनेप्स होते हैं. जिसे हम एक बहुत बड़ा मॉडल कह सकते हैं, जैसे GPT-3 में 175 बिलियन सिनेप्स हैं. यह मस्तिष्क से एक हजार गुना छोटा है. GPT-3 अब बहुत प्रशंसनीय दिखने वाला टेक्स्ट उत्पन्न कर सकता है और यह मस्तिष्क की तुलना में अभी भी छोटा है.

जब आप पैमाने कहते हैं, तो क्या आपका मतलब बड़े न्यूरल नेटवर्क या अधिक डेटा या दोनों से है?

मेरा मतलब दोनों से है. कंप्यूटर विज्ञान में क्या होता है और लोगों के साथ क्या होता है, इसके बीच एक प्रकार की विसंगति है. जितना डेटा उन्हें मिल रहा है, उसकी तुलना में लोगों के पास भारी मात्रा में पैरामीटर हैं. न्यूरल नेट आश्चर्यजनक रूप से बहुत कम मात्रा में डेटा के साथ बड़ी संख्या में मापदंडों में काम कर रहे हैं, लेकिन लोग और भी बेहतर हैं.

इस क्षेत्र के बहुत से लोग मानते हैं कि सामान्य ज्ञान चीजों से निपटने की अगली बड़ी क्षमता है. क्या आप सहमत हैं?

मैं मानता हूं कि यह बहुत महत्वपूर्ण चीजों में से एक है. मुझे भी लगता है कि मोटर नियंत्रण बहुत महत्वपूर्ण है और गहरे न्यूरल नेट अब उस पर अच्छे हो रहे हैं. विशेष रूप से, गूगल के कुछ हालिया कार्यों से पता चला है कि आप ठीक मोटर नियंत्रण कर सकते हैं और भाषा के साथ संयोजन कर सकते हैं, ताकि आप एक दराज खोल सकें और एक ब्लॉक निकाल सकें और सिस्टम आपको प्राकृतिक भाषा में बता सकता है कि वह क्या कर रहा है.

GPT-3 एक चीज है जो इस अद्भुत टेक्स्ट को उत्पन्न करता है, यह स्पष्ट है कि उस टेक्स्ट को बनाने के लिए बहुत कुछ समझना पड़ता, लेकिन यह बिल्कुल स्पष्ट नहीं है कि यह कितना समझेगा, लेकिन अगर कोई ड्रॉअर खोलता है और एक ब्लॉक निकालता है और कहता है कि मैंने अभी एक ड्रॉअर खोला है और एक ब्लॉक निकाला है. यह कहना मुश्किल है कि इसे यह समझ आया या नहीं, कि यह क्या कर रहा है.

एआई क्षेत्र ने हमेशा मानव मस्तिष्क को अपनी प्रेरणा का सबसे बड़ा स्रोत के रूप में देखा है और एआई के विभिन्न दृष्टिकोणों ने संज्ञानात्मक विज्ञान में विभिन्न सिद्धांतों से जन्म लिया है. क्या आप मानते हैं कि मस्तिष्क वास्तव में इसे समझने के लिए बाहरी दुनिया का प्रतिनिधित्व करता है या यह कि इसके बारे में सोचने का एक उपयोगी तरीका है?

कुछ समय पहले संज्ञानात्मक विज्ञान में, विचार के दो स्कूलों के बीच बहस हुई थी. एक स्टीफन कोसलिन के नेतृत्व में था जिसका मानना ​​था कि जब आप अपने दिमाग में दृश्य छवियों को हेरफेर करते हैं, तो आपके पास पिक्सेल की एक सरणी होती है और आप उन्हें चारों ओर घुमा रहे हैं. विचार के दूसरे स्कूल पारंपरिक एआई के अनुरूप उन्होंने कहा कि यह बकवास है. यह पदानुक्रमित, संरचनात्मक विवरण है. आपके दिमाग में एक प्रतीकात्मक संरचना है जिस कारण आप हेरफेर कर रहे हैं.

मुझे लगता है कि वे दोनों एक ही गलती कर रहे थे. कोसलिन ने सोचा कि हमने पिक्सल में हेरफेर किया है, क्योंकि बाहरी चित्र पिक्सेल से बने होते हैं और यह एक प्रतिनिधित्व है जिसे हम समझते हैं. प्रतीक लोगों ने सोचा कि हमने प्रतीकों में हेरफेर किया है, क्योंकि हम प्रतीकों में चीजों का प्रतिनिधित्व करते हैं और यह एक ऐसा प्रतिनिधित्व है जिसे हम समझते हैं. मुझे लगता है कि यह भी उतना ही गलत है.

कुछ लोग हैं जो अभी भी मानते हैं कि प्रतीकात्मक प्रतिनिधित्व एआई के लिए दृष्टिकोण में से एक है.

बिल्कुल मेरे पास हेक्टर लेवेस्क जैसे अच्छे दोस्त हैं, जो वास्तव में प्रतीकात्मक दृष्टिकोण में विश्वास करते हैं और इसमें बहुत अच्छा काम किया है. मैं भले उससे असहमत हूं, लेकिन प्रतीकात्मक दृष्टिकोण कोशिश करने के लिए पूरी तरह से उचित है. लेकिन मेरा अनुमान अंत पर है, हमें एहसास होगा कि प्रतीक केवल बाहरी दुनिया में मौजूद हैं और हम बड़े वैक्टर पर आंतरिक संचालन करते हैं.

एआई के भविष्य के बारे में आपका क्या मानना है?

खैर, मेरी समस्या यह है कि मेरे पास ये विरोधाभासी विचार हैं और फिर पांच साल बाद वे मुख्यधारा में हैं. 1980 के दशक से मेरे अधिकांश विरोधाभासी विचार अब मोटे तौर पर स्वीकृत किए गए हैं. यह उन लोगों के लिए काफी कठिन हैं जो उनसे असहमत हैं, तो हां, मैं अपने अंतर्विरोधी विचारों से कम आंका गया हूं.

Copyright 2020 Technology Review, Inc.
Distributed by Tribune Content Agency, LLC

पढे़ं जलवायु परिवर्तन के खिलाफ शक्तिशाली हथियार हो सकता है एस्बेस्टस

एमआईटी टेक्नोलॉजी रिव्यू,यूएसएः पहले दो वर्षों में, सर्वश्रेष्ठ टीमें 75% सटीकता तक पहुंचने में विफल रही थीं, लेकिन तीसरे में तीन शोधकर्ताओं जिसमें एक प्रोफेसर और उनके छात्र शामिल थे. उनके एक बैंड ने अचानक इस छत को उड़ा दिया. उन्होंने प्रतियोगिता में 10.8 प्रतिशत अंक हासिल किए. वह प्रोफेसर जेफ्री हिंटन थे और उन्होंने जिस तकनीक का इस्तेमाल किया था, उसे डीप लर्निंग कहा जाता था.

हिंटन वास्तव में 1980 के दशक से डीप लर्निंग के साथ काम कर रहा थे, लेकिन इसकी प्रभावशीलता डेटा और कम्प्यूटेशनल शक्ति की कमी से सीमित थी. तकनीक में उनके दृढ़ विश्वास ने अंत में उन्हें बड़े पैमाने पर लाभ दिया. इमेजनेट प्रतियोगिता का चौथा वर्ष, लगभग हर डीप लर्निंग सीखने और चमत्कारी सटीकता हासिल करने का उपयोग कर रही थी. जल्द ही इमेज रेकग्निशन से परे और उद्योगों की एक विस्तृत श्रृंखला के अंदर कार्यों के लिए पर्याप्त डीप लर्निंग को लागू किया जा रहा था.

पिछले साल, इस क्षेत्र में अपने मूलभूत योगदान के लिए, हिंटन को अन्य एआई अग्रदूतों यान लेचुन और योशुआ बेंगियो के साथ ट्यूरिंग अवार्ड से सम्मानित किया गया था. जहां वह कुछ सवालों के जवाब देते है, जो इस प्रकार हैः-

क्या डीप लर्निंग मानव बुद्धि को दोहराने के लिए पर्याप्त होगा?

मेरा मानना ​​है कि डीप लर्निंग सब कुछ करने में सक्षम होने जा रही है लेकिन, मुझे लगता है कि अभी कुछ वैचारिक सफलताओं के होने वाले हैं. उदाहरण के लिए, 2017 में आशीष वासवानी एट एएल ने ट्रांसफार्मर पेश कियी जो शब्दार्थों का प्रतिनिधित्व करने वाले अच्छे वैक्टर प्राप्त करते हैं. यह एक वैचारिक सफलता थी. अब इसका उपयोग लगभग सभी बेहतरीन प्राकृतिक-भाषा प्रसंस्करण में किया जाता है. हमें उस तरह के और अधिक सफलताओं की आवश्यकता होगी.

और अगर हमारे पास वे सफलताए हैं, तो क्या हम डीप लर्निंग के माध्यम से सभी मानवीय बुद्धिमत्ता का अनुमान लगा पाएंगे?

हां, विशेष रूप से इसलिए कि कैसे आप न्यूरल गतिविधि के बड़े वैक्टर रीजन के साथ चीजों को लागू करेंगे, लेकिन हमें बड़े पैमाने पर वृद्धि की आवश्यकता है. मानव मस्तिष्क में लगभग 100 ट्रिलियन पैरामीटर या सिनेप्स होते हैं. जिसे हम एक बहुत बड़ा मॉडल कह सकते हैं, जैसे GPT-3 में 175 बिलियन सिनेप्स हैं. यह मस्तिष्क से एक हजार गुना छोटा है. GPT-3 अब बहुत प्रशंसनीय दिखने वाला टेक्स्ट उत्पन्न कर सकता है और यह मस्तिष्क की तुलना में अभी भी छोटा है.

जब आप पैमाने कहते हैं, तो क्या आपका मतलब बड़े न्यूरल नेटवर्क या अधिक डेटा या दोनों से है?

मेरा मतलब दोनों से है. कंप्यूटर विज्ञान में क्या होता है और लोगों के साथ क्या होता है, इसके बीच एक प्रकार की विसंगति है. जितना डेटा उन्हें मिल रहा है, उसकी तुलना में लोगों के पास भारी मात्रा में पैरामीटर हैं. न्यूरल नेट आश्चर्यजनक रूप से बहुत कम मात्रा में डेटा के साथ बड़ी संख्या में मापदंडों में काम कर रहे हैं, लेकिन लोग और भी बेहतर हैं.

इस क्षेत्र के बहुत से लोग मानते हैं कि सामान्य ज्ञान चीजों से निपटने की अगली बड़ी क्षमता है. क्या आप सहमत हैं?

मैं मानता हूं कि यह बहुत महत्वपूर्ण चीजों में से एक है. मुझे भी लगता है कि मोटर नियंत्रण बहुत महत्वपूर्ण है और गहरे न्यूरल नेट अब उस पर अच्छे हो रहे हैं. विशेष रूप से, गूगल के कुछ हालिया कार्यों से पता चला है कि आप ठीक मोटर नियंत्रण कर सकते हैं और भाषा के साथ संयोजन कर सकते हैं, ताकि आप एक दराज खोल सकें और एक ब्लॉक निकाल सकें और सिस्टम आपको प्राकृतिक भाषा में बता सकता है कि वह क्या कर रहा है.

GPT-3 एक चीज है जो इस अद्भुत टेक्स्ट को उत्पन्न करता है, यह स्पष्ट है कि उस टेक्स्ट को बनाने के लिए बहुत कुछ समझना पड़ता, लेकिन यह बिल्कुल स्पष्ट नहीं है कि यह कितना समझेगा, लेकिन अगर कोई ड्रॉअर खोलता है और एक ब्लॉक निकालता है और कहता है कि मैंने अभी एक ड्रॉअर खोला है और एक ब्लॉक निकाला है. यह कहना मुश्किल है कि इसे यह समझ आया या नहीं, कि यह क्या कर रहा है.

एआई क्षेत्र ने हमेशा मानव मस्तिष्क को अपनी प्रेरणा का सबसे बड़ा स्रोत के रूप में देखा है और एआई के विभिन्न दृष्टिकोणों ने संज्ञानात्मक विज्ञान में विभिन्न सिद्धांतों से जन्म लिया है. क्या आप मानते हैं कि मस्तिष्क वास्तव में इसे समझने के लिए बाहरी दुनिया का प्रतिनिधित्व करता है या यह कि इसके बारे में सोचने का एक उपयोगी तरीका है?

कुछ समय पहले संज्ञानात्मक विज्ञान में, विचार के दो स्कूलों के बीच बहस हुई थी. एक स्टीफन कोसलिन के नेतृत्व में था जिसका मानना ​​था कि जब आप अपने दिमाग में दृश्य छवियों को हेरफेर करते हैं, तो आपके पास पिक्सेल की एक सरणी होती है और आप उन्हें चारों ओर घुमा रहे हैं. विचार के दूसरे स्कूल पारंपरिक एआई के अनुरूप उन्होंने कहा कि यह बकवास है. यह पदानुक्रमित, संरचनात्मक विवरण है. आपके दिमाग में एक प्रतीकात्मक संरचना है जिस कारण आप हेरफेर कर रहे हैं.

मुझे लगता है कि वे दोनों एक ही गलती कर रहे थे. कोसलिन ने सोचा कि हमने पिक्सल में हेरफेर किया है, क्योंकि बाहरी चित्र पिक्सेल से बने होते हैं और यह एक प्रतिनिधित्व है जिसे हम समझते हैं. प्रतीक लोगों ने सोचा कि हमने प्रतीकों में हेरफेर किया है, क्योंकि हम प्रतीकों में चीजों का प्रतिनिधित्व करते हैं और यह एक ऐसा प्रतिनिधित्व है जिसे हम समझते हैं. मुझे लगता है कि यह भी उतना ही गलत है.

कुछ लोग हैं जो अभी भी मानते हैं कि प्रतीकात्मक प्रतिनिधित्व एआई के लिए दृष्टिकोण में से एक है.

बिल्कुल मेरे पास हेक्टर लेवेस्क जैसे अच्छे दोस्त हैं, जो वास्तव में प्रतीकात्मक दृष्टिकोण में विश्वास करते हैं और इसमें बहुत अच्छा काम किया है. मैं भले उससे असहमत हूं, लेकिन प्रतीकात्मक दृष्टिकोण कोशिश करने के लिए पूरी तरह से उचित है. लेकिन मेरा अनुमान अंत पर है, हमें एहसास होगा कि प्रतीक केवल बाहरी दुनिया में मौजूद हैं और हम बड़े वैक्टर पर आंतरिक संचालन करते हैं.

एआई के भविष्य के बारे में आपका क्या मानना है?

खैर, मेरी समस्या यह है कि मेरे पास ये विरोधाभासी विचार हैं और फिर पांच साल बाद वे मुख्यधारा में हैं. 1980 के दशक से मेरे अधिकांश विरोधाभासी विचार अब मोटे तौर पर स्वीकृत किए गए हैं. यह उन लोगों के लिए काफी कठिन हैं जो उनसे असहमत हैं, तो हां, मैं अपने अंतर्विरोधी विचारों से कम आंका गया हूं.

Copyright 2020 Technology Review, Inc.
Distributed by Tribune Content Agency, LLC

पढे़ं जलवायु परिवर्तन के खिलाफ शक्तिशाली हथियार हो सकता है एस्बेस्टस

Last Updated : Feb 16, 2021, 7:31 PM IST
ETV Bharat Logo

Copyright © 2024 Ushodaya Enterprises Pvt. Ltd., All Rights Reserved.