Biodata Maker

Select Your Language

Notifications

webdunia
webdunia
webdunia
webdunia

एआई के ज़रिए बच्चों की 'डीपफ़ेक' यौन सामग्री में उछाल, UNICEF की चेतावनी

Advertiesment
UNICEF issues warning about deepfakes
संयुक्त राष्ट्र बाल कोष (UNICEF) ने कृत्रिम बुद्धिमता (एआई) के ज़रिए तैयार की जा रही बच्चों की यौन तस्वीरों, उन्हें साझा किए जाने के मामलों में आए तेज़ उछाल पर गहरी चिंता जताई है और इस पर लगाम कसने के लिए ठोस सुरक्षा उपायों की मांग की है। इनमें बड़ी संख्या में ऐसे मामले भी हैं, जिनमें बच्चों की तस्वीरों में छेड़छाड़ के ज़रिए उन्हें यौन रूप (sexualized) में पेश किया गया।
 
यूनीसेफ़ ने बुधवार को जारी अपने एक वक्तव्य में क्षोभ जताया कि एआई से तैयार झूठी तस्वीरों व वीडियो (डीपफ़ेक) के ग़लत इस्तेमाल से वास्तविक नुक़सान हो रहा है। बच्चे इससे निपटने के लिए क़ानून की प्रतीक्षा नहीं कर सकते हैं। एक अध्ययन के अनुसार, कम से कम 12 लाख युवाओं ने बताया है पिछले वर्ष उनकी तस्वीरों कों डीपफ़ेक के ज़रिए ग़लत ढंग से यौन रूपों में तब्दील कर दिया गया था। 
UNICEF, अन्तरराष्ट्रीय पुलिस एजेंसी (INTERPOL) और बच्चों के यौन शोषण को रोकने के लिए प्रयासरत, ECPAT नामक एक वैश्विक नैटवर्क ने 11 देशों में सामने आए मामलों के विश्लेषण के बाद यह निष्कर्ष साझा किया है। कुछ देशों में हर 25 में से 1 बच्चे के प्रभावित होने की बात कही गई है, जो कि अक्सर एक आम कक्षा का आकार होता है। 
 

‘नग्नता’ के औज़ार

डीपफ़ेक उन तस्वीरों, वीडियो या ऑडियो को कहा जाता है जिन्हें एआई की मदद से मूल सामग्री में छेड़छाड़ के बाद तैयार किया जाए। इसके ज़रिए इस सामग्री को वास्तविक रूप में प्रस्तुत किया जाता है। मगर बच्चों को निशाना बनाकर उनकी तस्वीरों व वीडियों को यौन रूप (sexualized) में प्रस्तुत किए जाने के मामलों में उछाल आ रहा है। 
 
इनमें तथाकथित नग्नता दिखाने के लिए इस्तेमाल में लाए जाने वाले टूल भी हैं, जिनसे कपड़ों में ली गई मूल फ़ोटो में व्यक्ति को निर्वस्त्र कर दिया जाया है या फिर झूठी यौनिक तस्वीरें तैयार की जाती हैं। यूनीसेफ़ ने आगाह किया है कि जब किसी बच्चे की तस्वीर या पहचान का इस्तेमाल किया जाता है, तो प्रभावित बच्चा सीधे तौर पर इससे पीड़ित होता है।
यदि किसी पीड़ित की पहचान न भी हो, ऐसी स्थिति में एआई के ज़रिए तैयार की गई बाल यौन दुर्व्यवहार सामग्री बच्चों के यौन शोषण का सामान्यीकरण करती है, शोषणकारी सामग्री के लिए मांग को हवा देती है और क़ानून लागू करने के प्रयासों में बड़ी चुनौतियां पेश करती हैं, जब बात उन बच्चों की हो, जिन्हें शिनाख़्त व सुरक्षा की आवश्यकता है। डीपफ़ेक दुरुपयोग, शोषणकारी है और यह जिस नुक़सान की वजह बनती है, उसके बारे में कुछ भी झूठा नहीं है।
 

सुरक्षा उपायों की मांग

यूनीसेफ़ ने एआई को विकिसत कर रहे विशेषज्ञों के उन प्रयासों का स्वागत किया है, जो अपने डिज़ाइन में ही सुरक्षा तौर-तरीक़ों को अपनाने की कोशिशें कर रहे हैं। साथ ही, ऐसी किसी टेक्‍नोलॉजी के ग़लत इस्तेमाल को रोकने के रास्ते विकसित कर रहे हैं।
 
मगर फ़िलहाल ये प्रयास नाकाफ़ी साबित हुए हैं और बड़ी संख्या में एआई मॉडलों को बिना पर्याप्त सुरक्षा उपायों के ज़रिए ही तैयार किया जा रहा है। लिखित या मल्टीमीडिया सामग्री तैयार करने वाले, जनरेटिव एआई टूल्स को जब सोशल मीडिया प्लैटफ़ॉर्म का ही हिस्सा बना दिया जाए, तो उससे जोखिम और गहरे होते हैं और तस्वीरों के साथ छेड़छाड़ और उनका फैलाव तेज़ी से किया जा सकता है। 
यूनीसेफ़ के अनुसार, बच्चे भी इन जोखिमों के प्रति जागरुक हैं और अध्ययन में शामिल कुछ देशों में दो-तिहाई से अधिक युवाओं ने चिन्ता जताई कि एआई के ज़रिए उनकी झूठी, यौन तस्वीरों या वीडियों को तैयार किया जा सकता है।  
 

तेज़ी से बढ़ता जोखिम

संयुक्त राष्ट्र बाल कोष के अनुसार, अलग-अलग देशों में इस मुद्दे पर चिन्ताओं के स्तर में अन्तर है और इसलिए जागरुकता प्रसार, रोकथाम उपायों और संरक्षण के लिए प्रयासों की आवश्यकता है। इस बढ़ते जोखिम से निपटने के लिए यूएन एजेंसी ने पिछले वर्ष दिसम्बर में एआई व बच्चों पर अपने नए दिशानिर्देश जारी किए थे, जिसमें बाल अधिकारों के लिए नीतियों व व्यवस्थाओं की अनुशंसा की गई हैं।
 

फ़िलहाल यूनीसेफ़ ने इस ख़तरे पर पार पाने के लिए निम्न क़दमों की पुकार लगाई है

देशों की सरकारों को बाल यौन दुर्व्यवहार सामग्री की परिभाषा का विस्तार करने की आवश्यकता है, ताकि एआई के ज़रिए तैयार सामग्री को शामिल किया जा सके। इसके लिए ऐसी सामग्री को बनाने, ख़रीदने, अपने पास रखने और उसके वितरण को अपराध के दायरे में लाना होगा।
एआई टूल विकसित कर रहे विशेषज्ञों को डिज़ाइन में ही सुरक्षा उपायों को शामिल करना होगा और एआई मॉडल के ग़लत इस्तेमाल को रोकने के लिए ठोस क़दम उठाने होंगे। डिजिटल कंपनियों को एआई द्वारा तैयार की गई, बाल यौन सामग्री को न केवल रोकना होगा, बल्कि उसे साझा किए जाने से भी रोकना होगा। साथ ही, पता लगाने की टेक्‍नोलॉजी में निवेश करना होगा ताकि सामग्री की देखरेख की जा सके।

Share this Story:

Follow Webdunia Hindi

अगला लेख

चीन को लेकर बड़ा खुलासा, गलवान झड़प के बाद किया था परमाणु टेस्‍ट, अमेरिका के दावे पर भड़का China