एमआईटी टेक्नोलॉजी रिव्यू,यूएसएः पहले दो वर्षों में, सर्वश्रेष्ठ टीमें 75% सटीकता तक पहुंचने में विफल रही थीं, लेकिन तीसरे में तीन शोधकर्ताओं जिसमें एक प्रोफेसर और उनके छात्र शामिल थे. उनके एक बैंड ने अचानक इस छत को उड़ा दिया. उन्होंने प्रतियोगिता में 10.8 प्रतिशत अंक हासिल किए. वह प्रोफेसर जेफ्री हिंटन थे और उन्होंने जिस तकनीक का इस्तेमाल किया था, उसे डीप लर्निंग कहा जाता था.
हिंटन वास्तव में 1980 के दशक से डीप लर्निंग के साथ काम कर रहा थे, लेकिन इसकी प्रभावशीलता डेटा और कम्प्यूटेशनल शक्ति की कमी से सीमित थी. तकनीक में उनके दृढ़ विश्वास ने अंत में उन्हें बड़े पैमाने पर लाभ दिया. इमेजनेट प्रतियोगिता का चौथा वर्ष, लगभग हर डीप लर्निंग सीखने और चमत्कारी सटीकता हासिल करने का उपयोग कर रही थी. जल्द ही इमेज रेकग्निशन से परे और उद्योगों की एक विस्तृत श्रृंखला के अंदर कार्यों के लिए पर्याप्त डीप लर्निंग को लागू किया जा रहा था.
पिछले साल, इस क्षेत्र में अपने मूलभूत योगदान के लिए, हिंटन को अन्य एआई अग्रदूतों यान लेचुन और योशुआ बेंगियो के साथ ट्यूरिंग अवार्ड से सम्मानित किया गया था. जहां वह कुछ सवालों के जवाब देते है, जो इस प्रकार हैः-
क्या डीप लर्निंग मानव बुद्धि को दोहराने के लिए पर्याप्त होगा?
मेरा मानना है कि डीप लर्निंग सब कुछ करने में सक्षम होने जा रही है लेकिन, मुझे लगता है कि अभी कुछ वैचारिक सफलताओं के होने वाले हैं. उदाहरण के लिए, 2017 में आशीष वासवानी एट एएल ने ट्रांसफार्मर पेश कियी जो शब्दार्थों का प्रतिनिधित्व करने वाले अच्छे वैक्टर प्राप्त करते हैं. यह एक वैचारिक सफलता थी. अब इसका उपयोग लगभग सभी बेहतरीन प्राकृतिक-भाषा प्रसंस्करण में किया जाता है. हमें उस तरह के और अधिक सफलताओं की आवश्यकता होगी.
और अगर हमारे पास वे सफलताए हैं, तो क्या हम डीप लर्निंग के माध्यम से सभी मानवीय बुद्धिमत्ता का अनुमान लगा पाएंगे?
हां, विशेष रूप से इसलिए कि कैसे आप न्यूरल गतिविधि के बड़े वैक्टर रीजन के साथ चीजों को लागू करेंगे, लेकिन हमें बड़े पैमाने पर वृद्धि की आवश्यकता है. मानव मस्तिष्क में लगभग 100 ट्रिलियन पैरामीटर या सिनेप्स होते हैं. जिसे हम एक बहुत बड़ा मॉडल कह सकते हैं, जैसे GPT-3 में 175 बिलियन सिनेप्स हैं. यह मस्तिष्क से एक हजार गुना छोटा है. GPT-3 अब बहुत प्रशंसनीय दिखने वाला टेक्स्ट उत्पन्न कर सकता है और यह मस्तिष्क की तुलना में अभी भी छोटा है.
जब आप पैमाने कहते हैं, तो क्या आपका मतलब बड़े न्यूरल नेटवर्क या अधिक डेटा या दोनों से है?
मेरा मतलब दोनों से है. कंप्यूटर विज्ञान में क्या होता है और लोगों के साथ क्या होता है, इसके बीच एक प्रकार की विसंगति है. जितना डेटा उन्हें मिल रहा है, उसकी तुलना में लोगों के पास भारी मात्रा में पैरामीटर हैं. न्यूरल नेट आश्चर्यजनक रूप से बहुत कम मात्रा में डेटा के साथ बड़ी संख्या में मापदंडों में काम कर रहे हैं, लेकिन लोग और भी बेहतर हैं.
इस क्षेत्र के बहुत से लोग मानते हैं कि सामान्य ज्ञान चीजों से निपटने की अगली बड़ी क्षमता है. क्या आप सहमत हैं?
मैं मानता हूं कि यह बहुत महत्वपूर्ण चीजों में से एक है. मुझे भी लगता है कि मोटर नियंत्रण बहुत महत्वपूर्ण है और गहरे न्यूरल नेट अब उस पर अच्छे हो रहे हैं. विशेष रूप से, गूगल के कुछ हालिया कार्यों से पता चला है कि आप ठीक मोटर नियंत्रण कर सकते हैं और भाषा के साथ संयोजन कर सकते हैं, ताकि आप एक दराज खोल सकें और एक ब्लॉक निकाल सकें और सिस्टम आपको प्राकृतिक भाषा में बता सकता है कि वह क्या कर रहा है.
GPT-3 एक चीज है जो इस अद्भुत टेक्स्ट को उत्पन्न करता है, यह स्पष्ट है कि उस टेक्स्ट को बनाने के लिए बहुत कुछ समझना पड़ता, लेकिन यह बिल्कुल स्पष्ट नहीं है कि यह कितना समझेगा, लेकिन अगर कोई ड्रॉअर खोलता है और एक ब्लॉक निकालता है और कहता है कि मैंने अभी एक ड्रॉअर खोला है और एक ब्लॉक निकाला है. यह कहना मुश्किल है कि इसे यह समझ आया या नहीं, कि यह क्या कर रहा है.
एआई क्षेत्र ने हमेशा मानव मस्तिष्क को अपनी प्रेरणा का सबसे बड़ा स्रोत के रूप में देखा है और एआई के विभिन्न दृष्टिकोणों ने संज्ञानात्मक विज्ञान में विभिन्न सिद्धांतों से जन्म लिया है. क्या आप मानते हैं कि मस्तिष्क वास्तव में इसे समझने के लिए बाहरी दुनिया का प्रतिनिधित्व करता है या यह कि इसके बारे में सोचने का एक उपयोगी तरीका है?
कुछ समय पहले संज्ञानात्मक विज्ञान में, विचार के दो स्कूलों के बीच बहस हुई थी. एक स्टीफन कोसलिन के नेतृत्व में था जिसका मानना था कि जब आप अपने दिमाग में दृश्य छवियों को हेरफेर करते हैं, तो आपके पास पिक्सेल की एक सरणी होती है और आप उन्हें चारों ओर घुमा रहे हैं. विचार के दूसरे स्कूल पारंपरिक एआई के अनुरूप उन्होंने कहा कि यह बकवास है. यह पदानुक्रमित, संरचनात्मक विवरण है. आपके दिमाग में एक प्रतीकात्मक संरचना है जिस कारण आप हेरफेर कर रहे हैं.
मुझे लगता है कि वे दोनों एक ही गलती कर रहे थे. कोसलिन ने सोचा कि हमने पिक्सल में हेरफेर किया है, क्योंकि बाहरी चित्र पिक्सेल से बने होते हैं और यह एक प्रतिनिधित्व है जिसे हम समझते हैं. प्रतीक लोगों ने सोचा कि हमने प्रतीकों में हेरफेर किया है, क्योंकि हम प्रतीकों में चीजों का प्रतिनिधित्व करते हैं और यह एक ऐसा प्रतिनिधित्व है जिसे हम समझते हैं. मुझे लगता है कि यह भी उतना ही गलत है.
कुछ लोग हैं जो अभी भी मानते हैं कि प्रतीकात्मक प्रतिनिधित्व एआई के लिए दृष्टिकोण में से एक है.
बिल्कुल मेरे पास हेक्टर लेवेस्क जैसे अच्छे दोस्त हैं, जो वास्तव में प्रतीकात्मक दृष्टिकोण में विश्वास करते हैं और इसमें बहुत अच्छा काम किया है. मैं भले उससे असहमत हूं, लेकिन प्रतीकात्मक दृष्टिकोण कोशिश करने के लिए पूरी तरह से उचित है. लेकिन मेरा अनुमान अंत पर है, हमें एहसास होगा कि प्रतीक केवल बाहरी दुनिया में मौजूद हैं और हम बड़े वैक्टर पर आंतरिक संचालन करते हैं.
एआई के भविष्य के बारे में आपका क्या मानना है?
खैर, मेरी समस्या यह है कि मेरे पास ये विरोधाभासी विचार हैं और फिर पांच साल बाद वे मुख्यधारा में हैं. 1980 के दशक से मेरे अधिकांश विरोधाभासी विचार अब मोटे तौर पर स्वीकृत किए गए हैं. यह उन लोगों के लिए काफी कठिन हैं जो उनसे असहमत हैं, तो हां, मैं अपने अंतर्विरोधी विचारों से कम आंका गया हूं.
Copyright 2020 Technology Review, Inc.
Distributed by Tribune Content Agency, LLC
पढे़ं जलवायु परिवर्तन के खिलाफ शक्तिशाली हथियार हो सकता है एस्बेस्टस