क्रिस वालेंस, टेक्नोलॉजी रिपोर्टर, बीबीसी
'आर्टिफिशियल इंटेलिजेंस (artificial Intelligence) से इंसानी वजूद को ख़तरा हो सकता है।' कई विशेषज्ञों ने इसे लेकर आगाह किया है। ऐसी चेतावनी देने वालों में ओपन AI और गूगल डीपमाइंड के प्रमुख शामिल हैं। इसे लेकर जारी बयान 'सेंटर फ़ॉर एआई सेफ़्टी' के वेबपेज़ पर छपा है। कई विशेषज्ञों ने इस बयान के साथ अपनी सहमति जाहिर की है।
विशेषज्ञों ने चेतावनी देते हुए कहा है कि समाज को प्रभावित कर सकने वाले दूसरे ख़तरों, मसलन महामारी और परमाणु युद्ध के साथ साथ आर्टिफिशियल इंटेलिजेंस की वजह से वजूद पर मौजूद ख़तरे को कम करना वैश्विक प्राथमिकता होनी चाहिए।
लेकिन कई लोगों की राय है कि इसके डर को बढ़ा चढ़ाकर बताया जा रहा है। चैटजीपीटी के चीफ़ एक्ज़ीक्यूटिव सैम ऑल्टमैन, गूगल डीपमाइंड के चीफ़ एक्ज़ीक्यूटिव डेमिस हसाबिस और एंथ्रोपिक के डैरियो अमोदेई ने बयान का समर्थन किया है।
क्या हो सकते हैं ख़तरे
-
सेंटर फ़ॉर AI सेफ़्टी वेबसाइट ने तबाही वाले कई संभावित परिदृश्यों का ज़िक्र किया है।
-
AI को हथियार की तरह इस्तेमाल किया जा सकता है- उदाहरण के लिए ड्रग डिस्कवरी टूल्स को कैमिकल वेपन्स (रासायनिक हथियार) बनाने के लिए आजमाया जा सकता है।
-
AI की मदद से तैयार ग़लत सूचनाएं समाज को अस्थिर कर सकती हैं और इससे 'सामूहिक निर्णय प्रक्रिया पर असर हो सकता है।'
-
AI की ताक़त कुछ ही हाथों में सिमट सकती है, जिससे 'सरकारें बड़े पैमाने पर लोगों की निगरानी करने और दमनकारी सेंसरशिप के लिए इस्तेमाल कर सकती हैं।'
-
ऐसी स्थिति भी बन सकती है जब इंसान AI पर निर्भर हो जाएं जैसा कि 'फ़िल्म वॉल ई में दिखाया गया था।
बढ़ा-चढ़ाकर बताया जा रहा है ख़तरा?
सेंटर फ़ॉर AI सेफ़्टी की चेतावनी का डॉक्टर ज्यॉफ़री हिंटन ने भी समर्थन किया है। वो सुपर इंटेलिजेंट AI के ख़तरों को लेकर पहले भी चेतावनी जारी कर चुके हैं
यूनिवर्सिटी ऑफ़ मोंट्रियल में कंप्यूटर साइंस के प्रोफ़ेसर योशुआ बेंजो ने भी बयान पर दस्तख़त किए हैं। डॉक्टर हिंटन, प्रोफ़ेसर बेंजो और प्रोफ़ेसर यान लेकन को 'AI का गॉडफादर' कहा जाता है। इसकी वजह है इस क्षेत्र में उनका उल्लेखनीय काम।
इसके लिए इन्हें साल 2018 में संयुक्त रुप से 'टर्निंग अवॉर्ड' दिया गया था। ये पुरस्कार कंप्यूटर साइंस के क्षेत्र में उल्लेखनीय योगदान के लिए दिया जाता है।
प्रोफ़ेसर लेकन मेटा के लिए भी काम करते हैं। वो कहते हैं कि ये सर्वनाश से जुड़ी ये चेतावनी बढ़ा चढ़ाकर बताई जा रही है।
उन्होंने ट्विटर पर लिखा, "विनाश की इन भविष्यवाणियों को लेकर AI शोधकर्ताओं की सबसे आम प्रतिक्रिया चेहरे पर हथेली रखने जैसी है।"
कई दूसरे विशेषज्ञों की राय भी ऐसी ही है। वो कहते हैं कि AI मानवता को ख़त्म कर देगी, ये डर वास्तविक नहीं है। ये बातें सिस्टम में पहले से मौजूद पूर्वाग्रह जैसी दिक्कतों से ध्यान हटा सकती हैं।
प्रिंसटन यूनिवर्सिटी में कंप्यूटर वैज्ञानिक अरविंद नारायणन ने बीबीसी से कहा था कि साई फ़ाई जैसा विनाशकारी घटनाक्रम वास्तविक नहीं है।
उनके मुताबिक, "मौजूदा AI ऐसे जोखिमों के सच में तब्दील होने की क्षमता नहीं रखता है। नतीजतन, ये हाल फिलहाल AI से हो सकने वाले नुक़सान की ओर से ध्यान हटा रहा है।"
ऑक्सफ़ोर्ड इंस्टीट्यूट फ़ॉर एथिक्स इन AI की सीनियर रिसर्च एसोसिएट एलिजाबेथ रेनिएरिस ने बीबीसी से कहा कि वो मौजूदा वक़्त के करीबी दौर के ख़तरों को लेकर ज़्यादा फ़िक्रमंद हैं।
उन्होंने कहा, "AI की तरक्की से खुद ब खुद लिए जाने वाले ऐसे फ़ैसलों की क्षमता बढ़ेगी जो पूर्वाग्रह वाले हैं, जिनमें भेदभाव होता है, लोगों को अलग थलग किया जाता है और निष्पक्ष नहीं होते हैं। जिनकी समीक्षा नहीं हो सकती और उन पर बहस नहीं होते।"
उनके मुताबिक, "इससे मात्रा में बेतहाशा इजाफा होगा और ग़लत जानकारियां फैलेंगी। इससे हक़ीकत सही रूप में सामने नहीं आएगी। लोगों का भरोसा घटेगा। इससे असमानता और बढ़ेगी। खासकर उनके लिए जो डिजिटल तौर पर विभाजित दुनिया के कमज़ोर हिस्से की तरफ हैं।"
क्या हो सुरक्षित रास्ता?
वो कहती हैं कि AI के कई टूल 'अब तक के इंसानी अनुभव के लिहाज से फ्री राइड की तरह हैं।' इनमें से ज़्यादातर की ट्रेनिंग इंसान की बनाई सामग्री, टेक्स्ट, आर्ट और संगीत के जरिए हुई है। वो उसी के आधार पर काम करते हैं।
इन्हें तैयार करने वालों ने 'प्रभावी तरीके से तमाम दौलत और ताक़त को आम लोगों के बीच से हटाकर चंद निजी संस्थानों में लगाया है।'
लेकिन सेंटर फ़ॉर सेफ्टी के डायरेक्टर डटैन हेंड्राईक्स ने बीबीसी से कहा कि आने वाले वक़्त के जोखिम और आज की चिंताओं को 'परस्पर विरोधी के तौर पर नहीं देखा जाना चाहिए।'
वो कहते हैं, "कुछ मुद्दों को आज हल कर लिया जाए तो इससे आगे सामने आने वाले कई जोखिमों को हल करने में मदद मिल सकती है। "
नई नहीं है चिंता
AI के जरिए अस्तित्व पर संभावित ख़तरे को लेकर मार्च 2023 से बढ़ी है। तब टेस्ला के बॉस एलन मस्क समेत कई विशेषज्ञों ने एक खुला ख़त लिखा था। इसमें AI तक़नीक की नेक्स्ट जेनरेशन के डेवलपमेंट को रोकने की गुजारिश की गई थी।
इस पत्र में सवाल किया गया था, 'क्या हमें ऐसे गैर इंसानी दिमाग तैयार करने चाहिए जो आगे जाकर संख्या में हमसे आगे निकल जाएं, हम से ज़्यादा स्मार्ट हों और हमारी जगह ले लें।'
इससे अलग नए अभियान के तहत बहुत छोटा सा बयान जारी किया गया है। इसमें 'चर्चा शुरू करने' की बात है।
इस बयान में ख़तरे की तुलना परमाणु युद्ध से की गई है। ओपनAI के एक हालिया ब्लॉग में कहा गया है कि सुपरइंटेलिजेंस को न्यूक्लियर एनर्जी की ही तरह नियंत्रित किया जाना चाहिए।
ब्लॉग में लिखा गया है, "सुपरइंटेलिजेंस के लिए हमें आईएईए (इंटरनेशनल एटोमिक एनर्जी एजेंसी) जैसे किसी संगठन की ज़रुरत होगी।"
सुनक ने दिया भरोसा
सैम ऑल्टमैन और गूगल के चीफ़ एक्ज़ीक्यूटिव सुंदर पिचाई तकनीकी क्षेत्र के उन अगुवा लोगों में शामिल हैं जिन्होंने AI को नियंत्रित करने के लिए हाल में ब्रिटेन के प्रधानमंत्री ऋषि सुनक से बात की है।
AI के ख़तरों को लेकर दी गई हालिया चेतावनी के बारे में पत्रकारों से चर्चा करते हुए ऋषि सुनक ने अर्थव्यवस्था और समाज को होने वाले फ़ायदों पर ज़ोर दिया।
उन्होंने कहा, "आपने हाल में देखा कि ये लकवे के शिकार लोगों की चलने में मदद कर रहा था। नई एंटीबायोटिक्स की खोज कर रहा है लेकिन हमें ये तय करना होगा कि ये सब सुरक्षित तरीके से हो।"
उन्होंने कहा, "यही वजह है कि मैं पिछले हफ़्ते सभी प्रमुख AI कंपनियों के सीईओ से मिला ताकि हम चर्चा कर सकें कि हमें कौन से अवरोध लगाने हैं, किस तरह के नियंत्रण लगाए जाने चाहिए ताकि हम सुरक्षित रह सकें।"
ब्रिटेन के पीएम ऋषि सुनक ने कहा कि उन्होंने जी7 समिट में दूसरे नेताओं के साथ इस मुद्दे पर चर्चा की और जल्दी ही अमेरिका में भी इस मुद्दे को उठाएंगे। जी7 ने हाल में AI के लिए एक 'वर्किंग' ग्रुप बनाया है।