Hanuman Chalisa

Select Your Language

Notifications

webdunia
webdunia
webdunia
webdunia

एआई के ज़रिए बच्चों की 'डीपफ़ेक' यौन सामग्री में उछाल, UNICEF की चेतावनी

Advertiesment
हमें फॉलो करें UNICEF issues warning about deepfakes

UN

, रविवार, 8 फ़रवरी 2026 (22:30 IST)
संयुक्त राष्ट्र बाल कोष (UNICEF) ने कृत्रिम बुद्धिमता (एआई) के ज़रिए तैयार की जा रही बच्चों की यौन तस्वीरों, उन्हें साझा किए जाने के मामलों में आए तेज़ उछाल पर गहरी चिंता जताई है और इस पर लगाम कसने के लिए ठोस सुरक्षा उपायों की मांग की है। इनमें बड़ी संख्या में ऐसे मामले भी हैं, जिनमें बच्चों की तस्वीरों में छेड़छाड़ के ज़रिए उन्हें यौन रूप (sexualized) में पेश किया गया।
 
यूनीसेफ़ ने बुधवार को जारी अपने एक वक्तव्य में क्षोभ जताया कि एआई से तैयार झूठी तस्वीरों व वीडियो (डीपफ़ेक) के ग़लत इस्तेमाल से वास्तविक नुक़सान हो रहा है। बच्चे इससे निपटने के लिए क़ानून की प्रतीक्षा नहीं कर सकते हैं। एक अध्ययन के अनुसार, कम से कम 12 लाख युवाओं ने बताया है पिछले वर्ष उनकी तस्वीरों कों डीपफ़ेक के ज़रिए ग़लत ढंग से यौन रूपों में तब्दील कर दिया गया था। 
UNICEF, अन्तरराष्ट्रीय पुलिस एजेंसी (INTERPOL) और बच्चों के यौन शोषण को रोकने के लिए प्रयासरत, ECPAT नामक एक वैश्विक नैटवर्क ने 11 देशों में सामने आए मामलों के विश्लेषण के बाद यह निष्कर्ष साझा किया है। कुछ देशों में हर 25 में से 1 बच्चे के प्रभावित होने की बात कही गई है, जो कि अक्सर एक आम कक्षा का आकार होता है। 
 

‘नग्नता’ के औज़ार

डीपफ़ेक उन तस्वीरों, वीडियो या ऑडियो को कहा जाता है जिन्हें एआई की मदद से मूल सामग्री में छेड़छाड़ के बाद तैयार किया जाए। इसके ज़रिए इस सामग्री को वास्तविक रूप में प्रस्तुत किया जाता है। मगर बच्चों को निशाना बनाकर उनकी तस्वीरों व वीडियों को यौन रूप (sexualized) में प्रस्तुत किए जाने के मामलों में उछाल आ रहा है। 
 
इनमें तथाकथित नग्नता दिखाने के लिए इस्तेमाल में लाए जाने वाले टूल भी हैं, जिनसे कपड़ों में ली गई मूल फ़ोटो में व्यक्ति को निर्वस्त्र कर दिया जाया है या फिर झूठी यौनिक तस्वीरें तैयार की जाती हैं। यूनीसेफ़ ने आगाह किया है कि जब किसी बच्चे की तस्वीर या पहचान का इस्तेमाल किया जाता है, तो प्रभावित बच्चा सीधे तौर पर इससे पीड़ित होता है।
यदि किसी पीड़ित की पहचान न भी हो, ऐसी स्थिति में एआई के ज़रिए तैयार की गई बाल यौन दुर्व्यवहार सामग्री बच्चों के यौन शोषण का सामान्यीकरण करती है, शोषणकारी सामग्री के लिए मांग को हवा देती है और क़ानून लागू करने के प्रयासों में बड़ी चुनौतियां पेश करती हैं, जब बात उन बच्चों की हो, जिन्हें शिनाख़्त व सुरक्षा की आवश्यकता है। डीपफ़ेक दुरुपयोग, शोषणकारी है और यह जिस नुक़सान की वजह बनती है, उसके बारे में कुछ भी झूठा नहीं है।
 

सुरक्षा उपायों की मांग

यूनीसेफ़ ने एआई को विकिसत कर रहे विशेषज्ञों के उन प्रयासों का स्वागत किया है, जो अपने डिज़ाइन में ही सुरक्षा तौर-तरीक़ों को अपनाने की कोशिशें कर रहे हैं। साथ ही, ऐसी किसी टेक्‍नोलॉजी के ग़लत इस्तेमाल को रोकने के रास्ते विकसित कर रहे हैं।
 
मगर फ़िलहाल ये प्रयास नाकाफ़ी साबित हुए हैं और बड़ी संख्या में एआई मॉडलों को बिना पर्याप्त सुरक्षा उपायों के ज़रिए ही तैयार किया जा रहा है। लिखित या मल्टीमीडिया सामग्री तैयार करने वाले, जनरेटिव एआई टूल्स को जब सोशल मीडिया प्लैटफ़ॉर्म का ही हिस्सा बना दिया जाए, तो उससे जोखिम और गहरे होते हैं और तस्वीरों के साथ छेड़छाड़ और उनका फैलाव तेज़ी से किया जा सकता है। 
यूनीसेफ़ के अनुसार, बच्चे भी इन जोखिमों के प्रति जागरुक हैं और अध्ययन में शामिल कुछ देशों में दो-तिहाई से अधिक युवाओं ने चिन्ता जताई कि एआई के ज़रिए उनकी झूठी, यौन तस्वीरों या वीडियों को तैयार किया जा सकता है।  
 

तेज़ी से बढ़ता जोखिम

संयुक्त राष्ट्र बाल कोष के अनुसार, अलग-अलग देशों में इस मुद्दे पर चिन्ताओं के स्तर में अन्तर है और इसलिए जागरुकता प्रसार, रोकथाम उपायों और संरक्षण के लिए प्रयासों की आवश्यकता है। इस बढ़ते जोखिम से निपटने के लिए यूएन एजेंसी ने पिछले वर्ष दिसम्बर में एआई व बच्चों पर अपने नए दिशानिर्देश जारी किए थे, जिसमें बाल अधिकारों के लिए नीतियों व व्यवस्थाओं की अनुशंसा की गई हैं।
 

फ़िलहाल यूनीसेफ़ ने इस ख़तरे पर पार पाने के लिए निम्न क़दमों की पुकार लगाई है

देशों की सरकारों को बाल यौन दुर्व्यवहार सामग्री की परिभाषा का विस्तार करने की आवश्यकता है, ताकि एआई के ज़रिए तैयार सामग्री को शामिल किया जा सके। इसके लिए ऐसी सामग्री को बनाने, ख़रीदने, अपने पास रखने और उसके वितरण को अपराध के दायरे में लाना होगा।
एआई टूल विकसित कर रहे विशेषज्ञों को डिज़ाइन में ही सुरक्षा उपायों को शामिल करना होगा और एआई मॉडल के ग़लत इस्तेमाल को रोकने के लिए ठोस क़दम उठाने होंगे। डिजिटल कंपनियों को एआई द्वारा तैयार की गई, बाल यौन सामग्री को न केवल रोकना होगा, बल्कि उसे साझा किए जाने से भी रोकना होगा। साथ ही, पता लगाने की टेक्‍नोलॉजी में निवेश करना होगा ताकि सामग्री की देखरेख की जा सके।

Share this Story:

Follow Webdunia Hindi

अगला लेख

चीन को लेकर बड़ा खुलासा, गलवान झड़प के बाद किया था परमाणु टेस्‍ट, अमेरिका के दावे पर भड़का China