सावधान! हमें मिटा भी सकता है आर्टिफिशियल इंटेलिजेंस

राम यादव
किसी सिक्के की तरह दुनिया में हर चीज़ के हमेशा दो पहलू होते हैं- अच्छे और बुरे। लाभदायक और हानिकारक। आर्टिफिशियल इंटेलिजेंस यानी कृत्रिम बुद्धि भी इस शाश्वत नियम से मुक्त नहीं है।
  
ब्रिटेन में ऑक्सफोर्ड विश्वविद्यालय और ऑस्ट्रेलिया में कैनबरा के नेशनल विश्वविद्यालय के शोधकर्ता इस निष्कर्ष पर पहुंचे हैं कि कृत्रिम बुद्धि वाली मशीनें अभी तो हमारा काम आसान बना रही हैं, पर कभी हमारा 'काम तमाम' भी कर सकती हैं- यानी मानवता को मिटा भी सकती हैं! इस अध्ययन के एक सह-लेखक माइकल कोहेन ने विज्ञान पत्रिका 'AI' में प्रकाशित अपने एक लेख में निष्कर्ष निकाला है कि कृत्रिम बुद्धि वाली मशीनों से हमारी 'एक अस्तित्वगत तबाही न केवल संभव है, बल्कि संभावित है।'
 
माइकल कोहेन अपने विश्वविद्यालय के एक प्रोफेसर तो हैं ही, 'डीपमाइंड' नाम की एक कंपनी के मुख्य शोधकर्ता भी हैं। यह कंपनी कृत्रिम बुद्धि की प्रोग्रैमिंग में माहिर है। इसे समझने के लिए कि कृत्रिम बुद्धि वाली मशीनें हमारे अस्तित्व को ही ख़तरे में कैसे डाल सकती हैं, इन मशीनों की कार्यविधि को समझना होगा। हम जीते-जागते मनुष्यों की तरह, इन मशीनों को भी कृत्रिम बुद्धि का उपयोग करते हुए कोई निर्णय लेना पहले सीखना पड़ता है।
 
सीधी-सादी बुद्धि वाले सरल मॉडल : सीधी-सादी बुद्धि वाले मॉडल, किसी की निगरानी में सिखाने की 'सुपरवाइज़्ड लर्निंग' (SL) द्वारा अपना काम सीखते हैं। इस विधि में निर्णय लेने का अल्गोरिदम, मशीन की संगणक (कंप्यूटर) इकाई को एक 'ट्रेनिंग डेटासेट' और एक परिवर्तनीय (वैरिएबल) लक्ष्य के बीच मेल बैठाने के द्वारा सिखाया जाता है। इन सूचनाओं के आधार पर संगणक, डेटा और लक्ष्य के बीच परस्पर संबंध तथा संबंधों के पैटर्न की गणना करता है और उसके आधार पर अन्य डेटासेट के परिवर्तनीय लक्ष्यों के पूर्वानुमान लगाता है।
माइकल कोहेन ने अपने अध्ययन में जो चिंता व्यक्त की है, उसका संबंध कृत्रिम बुद्धि की उस अगली, और अधिक उन्नत पीढ़ी को लेकर है, जिसमें मशीन को 'प्रबलित सीख' (रीइनफ़ोर्समेंन्ट लर्निंग– RL) की विधि द्वारा निर्णय लेना और अपना काम करना सिखाया जाता है। इस विधि में तथाकथित 'एजेन्ट' (यानी बुद्धिमान मशीन) को कोई डेटासेट नहीं दिए जाते। 'एजेन्ट' ख़ुद ही एक प्रकार से कई अनुरूपी परिदृश्यों (सिम्युलेशन सिनारियो) की कल्पना करता है और ऐसे विकल्प सोचता है कि कौनसा क़दम कब सही होगा। उसका निर्णय यदि सही रहा, तो उसे कोई प्रत्साहन पुरस्कार दिया जाता है– कुछ वैसे ही, जैसे किसी कुत्ते को कुछ सीख जाने पर कोई स्वदिष्ट चीज़ दी जाती है। नहीं सीखा, तो कुत्ते को कुछ नहीं मिलता।
 
भावी मशीनों को पुरस्कृत किया जाएगा : कृत्रिम बुद्धिमत्ता की नई पीढ़ी के मामले में 'एजेन्ट' को कैसे पुरस्कृत किया जाएगा, इसे उपयोगकर्ता तय करेगा। माइकल कोहेन का लेकिन कहना है कि उसे पुरस्कार के रूप में क्या मिलेगा, यह पहले से तय होगा और 'एजेन्ट' को उसी के अनुरूप प्रोग्रैम किया गया होगा। समस्या तब पैदा होगी, जब 'एजेन्ट' समय के साथ यह भी बूझ गया होगा कि उसे पुरस्कृत करने की रणनीति क्या है! तब वह अधिक से अधिक पुरस्कार पाने के लिए तरकीबें भिड़ाने लगेगा। कोहेन अपने अध्ययन में इस नतीजे पर पहुंचे हैं कि यह स्थिति किसी सच्चे ख़तरे जैसी हो जाएगी!
 
माइकल कोहेन के अनुसार, 'एक एजेन्ट (यानी बुद्धिमान मशीन), जिसने पुरस्कृत करने के पीछे का सिद्धांत जान लिया है, कभी न कभी यह भी सोचेगा कि क्या मैं सदा वही करता रहूं, जो मेरे उपयोगकर्ता चाहते हैं, या मैं हर बार और अधिक पुरस्कार पाने की कोई युक्ति निकालूं।' कोहेन कहते हैं कि अध्ययन-मॉडलों में हमने पाया कि इस सीमारेखा को पार करते ही एजेन्ट अपना लाभ बढ़ाने के लिए तिकड़में भिड़ाने लगेगा। धोखाधड़ी करेगा। हम मनुष्य भी तो अधिक पाने की लालच में ऐसा ही करते हैं।
 
बुद्धिमान मशीनें मनुष्यों की तरह महत्वाकांक्षी बन सकती हैं : एक ऐसा एजेन्ट समय के साथ यदि अपने आस-पास की दुनिया से जुड़ना भी ख़ुद ही सीख गया, तो वह जिस किसी जगह काम कर रहा होगा, उसे पूरी तरह अपने नियंत्रण में लेने का भी प्रयास करेगा। उसकी ऊर्जा-भूख भी सुरसा के मुंह की तरह बढ़ती जाएगी। माइकल कोहेन और उनके सहयोगियों ने अपने मॉडल-अध्ययनों में पाया है कि हमारी बनाई कृत्रिम बुद्धि एक दिन हमारे ही अस्तित्व के लिए चुनौती बन सकती है।
 
मशीनी कृत्रिम बुद्धि की तुलना परमाणु शक्ति से भी की जा सकती है। परमाणु शक्ति की खोज भी जब नई-नवेली थी, तब बड़े गर्व से कहा जाता था कि अब ऊर्जा की हमारी सारी भूख एक दिन सदा के लिए तृप्त हो जाएगी। आज हम जानते हैं कि परमाणु ऊर्जा वाले बम किसी तृप्ति से पहले ही जीवन की समाप्ति कर सकते हैं।
 
गनीमत है कि माइकल कोहेन जैसे कुछ वैज्ञानिक हमें अभी से आगह करने लगे हैं कि कृत्रिम बुद्धि भी किसी परमाणु विभीषिका जैसी बन सकती है। ऐसा अभी नहीं होने जा रहा है। पर यह भी नहीं कहा जा सकता कि ऐसा कभी नहीं होगा। इसलिए हमें अभी से सचेत हो जाना और सोचना पड़ेगा कि कृत्रिम बुद्धिधारी मशीनों के विकास को हम कितना और कब तक प्रोत्साहन दे सकते हैं? इस दिशा में भावी प्रगति की लक्षमण-रेखा क्या होनी चाहिए?
 
शुरुआत 1950 के दशक में हुई थी : आर्टिफिशियल इंटेलिजेंस, यानी कृत्रिम बुद्धि की शुरुआत 1950 के दशक में ही हो गई थी, लेकिन इसे 1970 के दशक में सही पहचान मिली। जापान ने सबसे पहले पहल की और 1981 में फ़िफ्थ जनरेशन (पांचवीं पीढ़ी) नामक योजना की नींव रखी। इसमें सुपर-कंप्यूटर के विकास के लिए 10-वर्षीय कार्यक्रम की रूपरेखा प्रस्तुत की गई थी। बाद में ब्रिटेन ने इसके लिए ‘एल्वी’ नाम का एक प्रोजेक्ट बनाया।
 
यूरोपीय संघ के देशों ने भी ‘एस्प्रिट’ नाम से एक कार्यक्रम की शुरुआत की। 1983 में कुछ निजी संस्थाओं ने मिलकर आर्टिफिशियल इंटेलिजेंस पर लागू होने वाली 'वेरी लार्ज स्केल इन्टीग्रेटेड सर्किट (VLSIC) जैसी उन्नत तकनीकों का विकास करने के लिए ‘माइक्रो-इलेक्ट्रॉनिक्स एण्ड कंप्यूटर टेक्नोलॉजी’ नाम के एक संघ की स्थापना की।
 
सिरी, एलेक्सा, टेस्ला कार, नेटफ्लिक्स और अमेजॉन के डिजिटल एप्लिकेशन आजकल के सामान्य उपभोक्ताओं के लिए कृत्रिम बुद्धिमत्ता प्रौद्योगिकी के ही कुछेक आरंभिक उदाहरण हैं।
Edited by: Vrijendra Singh Jhala

सम्बंधित जानकारी

Show comments

जरूर पढ़ें

राहुल गांधी ने दी सफाई, बोले- मैं व्यवसाय नहीं, एकाधिकार के खिलाफ

Video : बस चलाते ड्राइवर को आया हार्ट अटैक, कंडक्टर ने दिखाई फूर्ती, लेकिन

शाहरुख खान को धमकी : गिरफ्तार आरोपी फैजान को थमाया नोटिस, पुलिस ने की पूछताछ

Skoda Kylaq : Nexon और Brezza की उड़ जाएगी नींद, 8 लाख से कम कीमत वाली स्कोडा की सबसे छोटी SUV

पप्पू यादव को फिर धमकी, व्हाट्‍सएप पर कहा- गिने आखिरी दिन, 6 लोगों को दी गई सुपारी

सभी देखें

नवीनतम

पुतिन ने ट्रंप को बताया बहादुर, रूस युक्रेन युद्ध पर अमेरिका से बातचीत को तैयार

अमेरिकी राष्ट्रपति जो बाइडन का ऐलान, डोनाल्ड ट्रंप को शांतिपूर्ण तरीके से सौंपेंगे सत्ता

मल्लिकार्जुन खरगे ने PM मोदी पर लगाया वादाखिलाफी का आरोप

छठ पूजा पर लाखों व्रतियों ने अस्ताचलगामी सूर्य को दिया अर्घ्य

जम्मू-कश्मीर में आतंकियों ने की 2 ग्राम रक्षा गार्ड की हत्या, सोपोर में सुरक्षा बलों के साथ मुठभेड़

अगला लेख