rashifal-2026

एआई के ज़रिए बच्चों की 'डीपफ़ेक' यौन सामग्री में उछाल, UNICEF की चेतावनी

UN
रविवार, 8 फ़रवरी 2026 (22:30 IST)
संयुक्त राष्ट्र बाल कोष (UNICEF) ने कृत्रिम बुद्धिमता (एआई) के ज़रिए तैयार की जा रही बच्चों की यौन तस्वीरों, उन्हें साझा किए जाने के मामलों में आए तेज़ उछाल पर गहरी चिंता जताई है और इस पर लगाम कसने के लिए ठोस सुरक्षा उपायों की मांग की है। इनमें बड़ी संख्या में ऐसे मामले भी हैं, जिनमें बच्चों की तस्वीरों में छेड़छाड़ के ज़रिए उन्हें यौन रूप (sexualized) में पेश किया गया।
 
यूनीसेफ़ ने बुधवार को जारी अपने एक वक्तव्य में क्षोभ जताया कि एआई से तैयार झूठी तस्वीरों व वीडियो (डीपफ़ेक) के ग़लत इस्तेमाल से वास्तविक नुक़सान हो रहा है। बच्चे इससे निपटने के लिए क़ानून की प्रतीक्षा नहीं कर सकते हैं। एक अध्ययन के अनुसार, कम से कम 12 लाख युवाओं ने बताया है पिछले वर्ष उनकी तस्वीरों कों डीपफ़ेक के ज़रिए ग़लत ढंग से यौन रूपों में तब्दील कर दिया गया था। 
ALSO READ: WHO : आपात हालात में स्वास्थ्य सेवाओं के लिए 1 अरब डॉलर की अपील
UNICEF, अन्तरराष्ट्रीय पुलिस एजेंसी (INTERPOL) और बच्चों के यौन शोषण को रोकने के लिए प्रयासरत, ECPAT नामक एक वैश्विक नैटवर्क ने 11 देशों में सामने आए मामलों के विश्लेषण के बाद यह निष्कर्ष साझा किया है। कुछ देशों में हर 25 में से 1 बच्चे के प्रभावित होने की बात कही गई है, जो कि अक्सर एक आम कक्षा का आकार होता है। 
 

‘नग्नता’ के औज़ार

डीपफ़ेक उन तस्वीरों, वीडियो या ऑडियो को कहा जाता है जिन्हें एआई की मदद से मूल सामग्री में छेड़छाड़ के बाद तैयार किया जाए। इसके ज़रिए इस सामग्री को वास्तविक रूप में प्रस्तुत किया जाता है। मगर बच्चों को निशाना बनाकर उनकी तस्वीरों व वीडियों को यौन रूप (sexualized) में प्रस्तुत किए जाने के मामलों में उछाल आ रहा है। 
 
इनमें तथाकथित नग्नता दिखाने के लिए इस्तेमाल में लाए जाने वाले टूल भी हैं, जिनसे कपड़ों में ली गई मूल फ़ोटो में व्यक्ति को निर्वस्त्र कर दिया जाया है या फिर झूठी यौनिक तस्वीरें तैयार की जाती हैं। यूनीसेफ़ ने आगाह किया है कि जब किसी बच्चे की तस्वीर या पहचान का इस्तेमाल किया जाता है, तो प्रभावित बच्चा सीधे तौर पर इससे पीड़ित होता है।
ALSO READ: भीषण धन कटौती से लड़खड़ा रही वैश्विक स्वास्थ्य प्रणाली, WHO ने दी चेतावनी
यदि किसी पीड़ित की पहचान न भी हो, ऐसी स्थिति में एआई के ज़रिए तैयार की गई बाल यौन दुर्व्यवहार सामग्री बच्चों के यौन शोषण का सामान्यीकरण करती है, शोषणकारी सामग्री के लिए मांग को हवा देती है और क़ानून लागू करने के प्रयासों में बड़ी चुनौतियां पेश करती हैं, जब बात उन बच्चों की हो, जिन्हें शिनाख़्त व सुरक्षा की आवश्यकता है। डीपफ़ेक दुरुपयोग, शोषणकारी है और यह जिस नुक़सान की वजह बनती है, उसके बारे में कुछ भी झूठा नहीं है।
 

सुरक्षा उपायों की मांग

यूनीसेफ़ ने एआई को विकिसत कर रहे विशेषज्ञों के उन प्रयासों का स्वागत किया है, जो अपने डिज़ाइन में ही सुरक्षा तौर-तरीक़ों को अपनाने की कोशिशें कर रहे हैं। साथ ही, ऐसी किसी टेक्‍नोलॉजी के ग़लत इस्तेमाल को रोकने के रास्ते विकसित कर रहे हैं।
 
मगर फ़िलहाल ये प्रयास नाकाफ़ी साबित हुए हैं और बड़ी संख्या में एआई मॉडलों को बिना पर्याप्त सुरक्षा उपायों के ज़रिए ही तैयार किया जा रहा है। लिखित या मल्टीमीडिया सामग्री तैयार करने वाले, जनरेटिव एआई टूल्स को जब सोशल मीडिया प्लैटफ़ॉर्म का ही हिस्सा बना दिया जाए, तो उससे जोखिम और गहरे होते हैं और तस्वीरों के साथ छेड़छाड़ और उनका फैलाव तेज़ी से किया जा सकता है। 
ALSO READ: UN महासचिव एंतोनियो ने पेश की अंतिम वर्ष की प्राथमिकताएं, बोले- विश्वभर में तनावों के खतरनाक दुष्परिणाम सामने आ रहे, अराजकता के बजाय शांति को चुनें
यूनीसेफ़ के अनुसार, बच्चे भी इन जोखिमों के प्रति जागरुक हैं और अध्ययन में शामिल कुछ देशों में दो-तिहाई से अधिक युवाओं ने चिन्ता जताई कि एआई के ज़रिए उनकी झूठी, यौन तस्वीरों या वीडियों को तैयार किया जा सकता है।  
 

तेज़ी से बढ़ता जोखिम

संयुक्त राष्ट्र बाल कोष के अनुसार, अलग-अलग देशों में इस मुद्दे पर चिन्ताओं के स्तर में अन्तर है और इसलिए जागरुकता प्रसार, रोकथाम उपायों और संरक्षण के लिए प्रयासों की आवश्यकता है। इस बढ़ते जोखिम से निपटने के लिए यूएन एजेंसी ने पिछले वर्ष दिसम्बर में एआई व बच्चों पर अपने नए दिशानिर्देश जारी किए थे, जिसमें बाल अधिकारों के लिए नीतियों व व्यवस्थाओं की अनुशंसा की गई हैं।
 

फ़िलहाल यूनीसेफ़ ने इस ख़तरे पर पार पाने के लिए निम्न क़दमों की पुकार लगाई है

देशों की सरकारों को बाल यौन दुर्व्यवहार सामग्री की परिभाषा का विस्तार करने की आवश्यकता है, ताकि एआई के ज़रिए तैयार सामग्री को शामिल किया जा सके। इसके लिए ऐसी सामग्री को बनाने, ख़रीदने, अपने पास रखने और उसके वितरण को अपराध के दायरे में लाना होगा।
ALSO READ: सुरक्षा परिषद : मध्य-पूर्व में अस्थिरता पर बैठक, किन देशों ने क्या कहा?
एआई टूल विकसित कर रहे विशेषज्ञों को डिज़ाइन में ही सुरक्षा उपायों को शामिल करना होगा और एआई मॉडल के ग़लत इस्तेमाल को रोकने के लिए ठोस क़दम उठाने होंगे। डिजिटल कंपनियों को एआई द्वारा तैयार की गई, बाल यौन सामग्री को न केवल रोकना होगा, बल्कि उसे साझा किए जाने से भी रोकना होगा। साथ ही, पता लगाने की टेक्‍नोलॉजी में निवेश करना होगा ताकि सामग्री की देखरेख की जा सके।

सम्बंधित जानकारी

RSS शताब्दी वर्ष कार्यक्रम में मोहन भागवत का बेबाक बयान, अंग्रेजी, UCC और AI पर खुलकर रखा पक्ष

4 रुपए वाले बयान पर बरसे ओवैसी, असम के CM पर कसा तंज, बोले- मैं तुम्हें 2 रुपए दे रहा, लोगे?

जिसका डर था वही हुआ! योगेंद्र यादव ने खोली भारत-अमेरिका ट्रेड डील की पोल

क्या अमूल की तरह कामयाबी के झंडे गाड़ेगी सहकारी भारत टैक्सी?

जनकपुरी हादसे पर राहुल ने दिल्‍ली सरकार पर साधा निशाना, बोले- असली कातिल सड़क नहीं, गैरजिम्मेदार सत्ता है...

चीन को लेकर बड़ा खुलासा, गलवान झड़प के बाद किया था परमाणु टेस्‍ट, अमेरिका के दावे पर भड़का China

देश की संप्रभुता से कोई समझौता नहीं होगा... भारत-अमेरिका ट्रेड डील पर बोले पीयूष गोयल

अखिलेश यादव ने SIR पर उठाए सवाल, बोले- फॉर्म-7 भरवाना बंद करे चुनाव आयोग, लोकतंत्र को खत्‍म कर रही BJP

PM मोदी के कुशल नेतृत्व का परिणाम है भारत-अमेरिका द्विपक्षीय व्यापार समझौता : योगी आदित्यनाथ

मुख्यमंत्री योगी का उत्‍तराखंड दौरा, यमकेश्वर महाविद्यालय का किया निरीक्षण, महंत अवेद्यनाथ को अर्पित की पुष्पांजलि

अगला लेख