बेलगाम हुआ आर्टिफिशियल इंटेलिजेंस

जनमेजय सिंह सिकरवार
आर्टिफ़िशियल इंटेलिजेंस – एक ऐसा शब्द, जिसे हम भले ही कम समझते हों, लेकिन यह हमें चारों ओर से जकड़ रहा है। किसी ऐप में गाने सुनते या यू-ट्यूब वीडियो देखते समय उसी तरह के दूसरे गानों या वीडियो का सुझाव मिलने से लेकर किसी खरीदारी करने वाली वेबसाइट पर हमारे सवालों का जवाब देने वाले ‘चैट बॉट’ तक, घर में हमारी बातों का उत्तर देने वाली एलेक्सा से लेकर मोबाइल पर मौजूद गूगल असिस्टेंट तक, एआई के आधार पर विकसित हो रहा सॉफ़्टवेयर अब हमें पूरी तरह जान-समझ और पहचान रहा है।
 
कभी-कभी आपको लगा होगा कि आपने किसी चीज के बारे में बात की ही थी कि अगली बार मोबाइल उठाने पर उससे संबंधित कोई विज्ञापन आपकी स्क्रीन पर मौजूद था! यह सब संभव हो रहा है आर्टिफिशियल इंटेलिंजेंस, यानि कृत्रिम बुद्धि के जरिए, जो इंसान की बुद्धि की तरह सोचने-समझने लायक होती जा रही है।
  
यूं तो एआई के उपयोग खासे लोकप्रिय होने लगे हैं, लेकिन इसके कुछ ऐसे पहलू भी हैं, जिन पर गौर किया जाना आवश्यक होता जा रहा है। इस आलेख श्रृंखला में, हम आपको आर्टिफिशियल इंटेलिजेंस के कुछ ऐसे प्रयोगों के बारे में बताने जा रहे हैं, जो आपको थोड़ा डरा भी सकते हैं और सोचने पर मजबूर भी कर सकते हैं। आइए, आज आपको बताते हैं फेसबुक और जॉर्जिया इंस्टीट्यूट ऑफ़ टेक्नॉलॉजी के एक संयुक्त प्रयास के बारे में। इसमें जॉर्जिया इंस्टीट्यूट की ओर से भारतीय मूल के दो शोधार्थी देवी पारिख और ध्रुव बत्रा शामिल थे।
 
यह प्रयोग यह स्थापित करने के लिए किया गया था कि दो आर्टिफिशियल इंटेलिजेंस द्वारा चलित 'न्यूरल एजेन्ट्स' (या सरल शब्दों में कहें तो ऐसे सॉफ़्टवेयर (या चैट बॉट), जो न्यूरल, अथवा इंसानी दिमाग की तरह काम करते हैं) को आपस में बात करके मनुष्यों की तरह एक निर्णय पर पहुंचना सिखाया जा सकता है। यह भविष्य के कंप्यूटरों के निर्माण की दिशा में एक अत्यन्त महत्वपूर्ण पहला कदम था। भविष्य के कंप्यूटर, अन्य उपयोगों के अलावा मानव को सुदूर अंतरिक्ष में अन्य ग्रहों और निहारिकाओं की यात्रा करने या वहां बस्ती बसाने में मदद करेंगे। यह करने के लिए उन्हें बहुत से अनदेखे प्रकार के परिदृश्यों के बारे में निर्णय लेने होंगे, जिसके लिए उन्हें 'सोचना होगा'।
 
शोध टीम ने दो न्यूरल मॉडल (या चैट बॉट) बनाकर उन्हें मनुष्यों द्वारा बातचीत और बातचीत के जरिए किसी हल पर पहुंचने के बहुत सारे उदाहरणों के द्वारा ट्रेनिंग दी। इस ट्रेनिंग के जरिए न्यूरल मॉडल्स को यह पता लगा कि किन परिस्थितियों में भाषा के किन तत्वों के उपयोग द्वारा बातचीत के अवरोध दूर कर निर्णय लिए जाते हैं। यह करने के लिए, पहले इन न्यूरल मॉडल्स को कई हजार उदाहरणों के जरिए यह सिखाया गया कि इंसान कैसे बात करते हैं। उन्हें बातचीत के दौरान बनी किसी परिस्थिति में मनुष्य के संभावित उत्तरों का ज्ञान कराया गया। शोधकर्ताओं ने पाया कि इस प्रकार सिखाए जाने पर इन मॉडल्स ने अच्छी भाषा का उपयोग तो किया, लेकिन वे बातचीत के जरिए किसी समस्या को हल करने लायक लचीलापन नहीं अपना पा रहे थे।
 
इस कमी को दूर करने के लिए शोध टीम ने इन मॉडल्स की रणनीतिक तर्कशक्ति को बढ़ाने के लिए दो और रास्ते अपनाए, जो इन मॉडल्स को केवल मनुष्यों की तरह भाषा का उपयोग न करके बातचीत में अपने लक्ष्य तक पहुंचाने की ओर ध्यान केन्द्रित करते थे। शोधकर्ताओं ने पाया कि लक्ष्य पर ध्यान केन्द्रित करते ही, सॉफ़्टवेयर मॉडल्स ने मोल-भाव करने की ऐसी कला खुद ही विकसित करना आरम्भ कर दिया, जिसके जरिए वे अपने निर्धारित लक्ष्य के लिए बहुत अच्छा मोल-भाव कर पा रहे थे। उदाहरण के लिए नीचे दिए गए चित्र में सॉफ़्टवेयर मॉडल कुछ वस्तुओं का इंसानों की तरह आपस में बंटवारा करने की कोशिश कर रहे हैं।
उक्त उदाहरण में, फेलो टर्कर नाम के सॉफ़्टवेयर मॉडल ने किताबों में अपनी झूठी रुचि दिखाकर बाद में उसे छोड़ अपनी इच्छित वस्तु के लिए मोल-भाव कर लिया। मनोवैज्ञानिकों का मानना है कि ‘डिसीट’ अथवा धोखा देकर कुछ हासिल करने की कला कोई इंसान अपने जीवन में काफ़ी देर से सीख पाता है, किन्तु इन सॉफ़्टवेयर मॉडल्स का लक्ष्य जैसे ही अच्छी बातचीत से बदलकर लक्ष्य प्राप्ति पर सेट किया गया, ये इस कला को सीखने लगे।
 
यहां तक की कहानी तो ठीक है और इन ‘सोचने’ वाले सॉफ़्टवेयर मॉडल्स का विकास रोमांचक सा लगता है। लेकिन इसके आगे कुछ ऐसा हुआ, जो अब भी रहस्य की गर्त में है और मानव जाति के लिए बहुत महत्वपूर्ण भी। आपने ‘टर्मिनेटर’ सीरीज़ की फ़िल्मों में इन्सान के पीछे पड़े रोबोट देखे होंगे। इन्हीं फ़िल्मों में स्कायनेट नाम का एक विश्वव्यापी सॉफ़्टवेयर है, जो मनुष्य जाति को समाप्त करने के पीछे पड़ा हुआ है और इसके लिए इतिहास को बदलने के लिए रोबोटों को समय में पीछे भेजकर लोगों की हत्या करवाने की कोशिश में है। यह सॉफ़्टवेयर निरंकुश हो चुका है और कोई भी इसे न तो रोक सकता है न पूरी तरह खत्म कर सकता है क्योंकि यह मनुष्यों से आगे सोचने लगा है। तो फ़ेसबुक एआई रीसर्च और जॉर्जिया इंस्टीट्यूट ऑफ़ टेक्नॉलॉजी के इस शोध में भी कुछ इस तरह की घटना हुई जिससे दुनिया भर में आर्टिफ़िशियल इंटेलिजेंस पर काम करने वाले शोधकर्ता और वैज्ञानिकों में खलबली मच गई।
 
सोशल मीडिया और मीडिया की खबरों के मुताबिक, इन सॉफ़्टवेयर मॉडल्स को जब लक्ष्य साधने के लिए तैयार किया गया, तो इन्होंने लक्ष्य तक पहुंचने के लिए शॉर्टकट, या शॉर्टहैंड अथवा यूं कहें कि भाषा के कुछ अलग रूपों का उपयोग शुरू कर दिया। कुछ समय के बाद जब शोधकर्ताओं ने इनकी प्रगति जांचने के लिए लॉग देखे, तो उन्हें पता लगा कि इन्होंने अपनी एक अलग भाषा का निर्माण करना आरम्भ कर दिया था, जो शोधकर्ताओं की समझ से परे थी!
 
यह पता लगते ही, कि प्रयोग में कुछ ऐसा हो रहा है जो शोधकर्ता वैज्ञानिकों के नियंत्रण में नहीं है, सॉफ़्टवेयर मॉडल्स का आपसी संवाद रोकने का आदेश दिया गया और फिर नए सिरे से उन्हें यह बताया गया कि उन्हें क्या नहीं करना है। हालांकि इस घटना की गंभीरता को विभिन्न सूत्रों ने भिन्न-भिन्न तरह से बताया, पर एक बात साफ़ थी, कि सॉफ़्टवेयर को अपने आप सीखने देना कुछ अनचाहे परिणाम दे सकता है।
 
मजे की बात यह है कि जुलाई 2017 के अंत में यह घटना सामने आने से दो-तीन सप्ताह पहले ही स्पेस एक्स, टेस्ला और अब ट्विटर के मालिक इलॉन मस्क ने अमेरिकी राज्यों के गवर्नरों के एक सम्मेलन को सम्बोधित करते हुए कहा था कि आर्टिफ़िशियल इंटेलिजेंस मानव सभ्यता के अस्तित्व के लिए गंभीर ख़तरा बन सकता है।
 
मस्क ने कहा कि एआई पर शोध के लिए नियम-कायदे सक्रियता के साथ बनाए जाने की आवश्यकता है। यदि हम किसी बड़ी घटना की प्रतिक्रिया स्वरूप नियम बनाने की प्रतीक्षा करेंगे तो बहुत देर हो चुकी होगी। उन्होंने यह भी कहा कि वे बहुत नियम-कायदे पसंद नहीं करते, किन्तु आर्टिफ़िशियल इंटेलिजेंस को बेरोकटोक विकसित करने देना बहुत खतरनाक होगा। जब किसी गवर्नर ने उनसे प्रतिप्रश्न किया कि वे एक ऐसी तकनीक के लिए ऐसा कैसे कह सकते हैं, जिसका अभी तक तो पूरा विकास भी नहीं हुआ है, तो उन्होंने कहा कि पहली सीढ़ी है एआई पर शोध में क्या हो रहा है इसका सरकार द्वारा पता लगाया जाना। एक बार यह होने के बाद लोग अवश्य इससे डरेंगे, जो कि होना भी चाहिए।
दो सप्ताह बाद एक फ़ेसबुक लाइव कार्यक्रम में किसी ने मार्क जुकरबर्ग से मस्क के इस बयान पर सवाल पूछा, और उन्होंने कहा कि वे इस बयान को गैर-जिम्मेदाराना मानते हैं। एआई हमारी दुनिया को बेहतर बनाएगा और हमें बेहतर सुविधाएं देगा। इस पर मस्क ने तुरंत प्रतिक्रिया दी, कि उन्होंने जुकरबर्ग से इस बारे में बात की है और उनकी समझ में जुकरबर्ग का एआई के बारे में ज्ञान बहुत सीमित है।
तो तकनीक की दुनिया के दो महारथियों के इन परस्पर विरोधी विचारों के बारे में आपका क्या सोचना है? एलन मस्क ने जो कहा था, वह एक छोटे रूप में ही सही, किन्तु दो-तीन सप्ताह के भीतर ही सामने आ गया। तो क्या हमें उनकी बातों को गंभीरता से से लेकर एआई पर लगाम लगाना चाहिए या भविष्य की सुविधाओं को देखते हुए इस पर काम जारी रखना चाहिए?
 
(आलेख की अगली कड़ी में देखेंगे एआई का एक और प्रयोग, और इंसानों के लिए खड़ी होती हुई एक और आफत)

सम्बंधित जानकारी

Show comments

जरूर पढ़ें

प्रियंका गांधी ने वायनाड सीट पर तोड़ा भाई राहुल गांधी का रिकॉर्ड, 4.1 लाख मतों के अंतर से जीत

election results : अब उद्धव ठाकरे की राजनीति का क्या होगा, क्या है बड़ी चुनौती

एकनाथ शिंदे ने CM पद के लिए ठोंका दावा, लाडकी बहीण योजना को बताया जीत का मास्टर स्ट्रोक

Sharad Pawar : महाराष्ट्र चुनाव के नतीजों से राजनीतिक विरासत के अस्तित्व पर सवाल?

UP : दुनिया के सामने उजागर हुआ BJP का हथकंडा, करारी हार के बाद बोले अखिलेश, चुनाव को बनाया भ्रष्टाचार का पर्याय

सभी देखें

नवीनतम

हिमाचल में बर्फबारी, मध्यप्रदेश और राजस्थान में बढ़ी ठंड

पुलिस कांस्टेबल हत्याकांड का मुख्य आरोपी मुठभेड़ में ढेर

LIVE: संभल में मस्जिद के सर्वेक्षण के दौरान बवाल, भीड़ ने किया पथराव, पुलिस ने छोड़े आंसू गैस के गोले

जीत के जश्न के दौरान बड़ा हादसा, गुलाल से लगी आग, MLA शिवाजी पाटिल झुलसे

महाराष्‍ट्र चुनाव में 21 महिलाओं ने मारी बाजी, किस पार्टी से कितनी महिला MLA?

अगला लेख