Hanuman Chalisa

एआई के ज़रिए बच्चों की 'डीपफ़ेक' यौन सामग्री में उछाल, UNICEF की चेतावनी

UN
रविवार, 8 फ़रवरी 2026 (22:30 IST)
संयुक्त राष्ट्र बाल कोष (UNICEF) ने कृत्रिम बुद्धिमता (एआई) के ज़रिए तैयार की जा रही बच्चों की यौन तस्वीरों, उन्हें साझा किए जाने के मामलों में आए तेज़ उछाल पर गहरी चिंता जताई है और इस पर लगाम कसने के लिए ठोस सुरक्षा उपायों की मांग की है। इनमें बड़ी संख्या में ऐसे मामले भी हैं, जिनमें बच्चों की तस्वीरों में छेड़छाड़ के ज़रिए उन्हें यौन रूप (sexualized) में पेश किया गया।
 
यूनीसेफ़ ने बुधवार को जारी अपने एक वक्तव्य में क्षोभ जताया कि एआई से तैयार झूठी तस्वीरों व वीडियो (डीपफ़ेक) के ग़लत इस्तेमाल से वास्तविक नुक़सान हो रहा है। बच्चे इससे निपटने के लिए क़ानून की प्रतीक्षा नहीं कर सकते हैं। एक अध्ययन के अनुसार, कम से कम 12 लाख युवाओं ने बताया है पिछले वर्ष उनकी तस्वीरों कों डीपफ़ेक के ज़रिए ग़लत ढंग से यौन रूपों में तब्दील कर दिया गया था। 
ALSO READ: WHO : आपात हालात में स्वास्थ्य सेवाओं के लिए 1 अरब डॉलर की अपील
UNICEF, अन्तरराष्ट्रीय पुलिस एजेंसी (INTERPOL) और बच्चों के यौन शोषण को रोकने के लिए प्रयासरत, ECPAT नामक एक वैश्विक नैटवर्क ने 11 देशों में सामने आए मामलों के विश्लेषण के बाद यह निष्कर्ष साझा किया है। कुछ देशों में हर 25 में से 1 बच्चे के प्रभावित होने की बात कही गई है, जो कि अक्सर एक आम कक्षा का आकार होता है। 
 

‘नग्नता’ के औज़ार

डीपफ़ेक उन तस्वीरों, वीडियो या ऑडियो को कहा जाता है जिन्हें एआई की मदद से मूल सामग्री में छेड़छाड़ के बाद तैयार किया जाए। इसके ज़रिए इस सामग्री को वास्तविक रूप में प्रस्तुत किया जाता है। मगर बच्चों को निशाना बनाकर उनकी तस्वीरों व वीडियों को यौन रूप (sexualized) में प्रस्तुत किए जाने के मामलों में उछाल आ रहा है। 
 
इनमें तथाकथित नग्नता दिखाने के लिए इस्तेमाल में लाए जाने वाले टूल भी हैं, जिनसे कपड़ों में ली गई मूल फ़ोटो में व्यक्ति को निर्वस्त्र कर दिया जाया है या फिर झूठी यौनिक तस्वीरें तैयार की जाती हैं। यूनीसेफ़ ने आगाह किया है कि जब किसी बच्चे की तस्वीर या पहचान का इस्तेमाल किया जाता है, तो प्रभावित बच्चा सीधे तौर पर इससे पीड़ित होता है।
ALSO READ: भीषण धन कटौती से लड़खड़ा रही वैश्विक स्वास्थ्य प्रणाली, WHO ने दी चेतावनी
यदि किसी पीड़ित की पहचान न भी हो, ऐसी स्थिति में एआई के ज़रिए तैयार की गई बाल यौन दुर्व्यवहार सामग्री बच्चों के यौन शोषण का सामान्यीकरण करती है, शोषणकारी सामग्री के लिए मांग को हवा देती है और क़ानून लागू करने के प्रयासों में बड़ी चुनौतियां पेश करती हैं, जब बात उन बच्चों की हो, जिन्हें शिनाख़्त व सुरक्षा की आवश्यकता है। डीपफ़ेक दुरुपयोग, शोषणकारी है और यह जिस नुक़सान की वजह बनती है, उसके बारे में कुछ भी झूठा नहीं है।
 

सुरक्षा उपायों की मांग

यूनीसेफ़ ने एआई को विकिसत कर रहे विशेषज्ञों के उन प्रयासों का स्वागत किया है, जो अपने डिज़ाइन में ही सुरक्षा तौर-तरीक़ों को अपनाने की कोशिशें कर रहे हैं। साथ ही, ऐसी किसी टेक्‍नोलॉजी के ग़लत इस्तेमाल को रोकने के रास्ते विकसित कर रहे हैं।
 
मगर फ़िलहाल ये प्रयास नाकाफ़ी साबित हुए हैं और बड़ी संख्या में एआई मॉडलों को बिना पर्याप्त सुरक्षा उपायों के ज़रिए ही तैयार किया जा रहा है। लिखित या मल्टीमीडिया सामग्री तैयार करने वाले, जनरेटिव एआई टूल्स को जब सोशल मीडिया प्लैटफ़ॉर्म का ही हिस्सा बना दिया जाए, तो उससे जोखिम और गहरे होते हैं और तस्वीरों के साथ छेड़छाड़ और उनका फैलाव तेज़ी से किया जा सकता है। 
ALSO READ: UN महासचिव एंतोनियो ने पेश की अंतिम वर्ष की प्राथमिकताएं, बोले- विश्वभर में तनावों के खतरनाक दुष्परिणाम सामने आ रहे, अराजकता के बजाय शांति को चुनें
यूनीसेफ़ के अनुसार, बच्चे भी इन जोखिमों के प्रति जागरुक हैं और अध्ययन में शामिल कुछ देशों में दो-तिहाई से अधिक युवाओं ने चिन्ता जताई कि एआई के ज़रिए उनकी झूठी, यौन तस्वीरों या वीडियों को तैयार किया जा सकता है।  
 

तेज़ी से बढ़ता जोखिम

संयुक्त राष्ट्र बाल कोष के अनुसार, अलग-अलग देशों में इस मुद्दे पर चिन्ताओं के स्तर में अन्तर है और इसलिए जागरुकता प्रसार, रोकथाम उपायों और संरक्षण के लिए प्रयासों की आवश्यकता है। इस बढ़ते जोखिम से निपटने के लिए यूएन एजेंसी ने पिछले वर्ष दिसम्बर में एआई व बच्चों पर अपने नए दिशानिर्देश जारी किए थे, जिसमें बाल अधिकारों के लिए नीतियों व व्यवस्थाओं की अनुशंसा की गई हैं।
 

फ़िलहाल यूनीसेफ़ ने इस ख़तरे पर पार पाने के लिए निम्न क़दमों की पुकार लगाई है

देशों की सरकारों को बाल यौन दुर्व्यवहार सामग्री की परिभाषा का विस्तार करने की आवश्यकता है, ताकि एआई के ज़रिए तैयार सामग्री को शामिल किया जा सके। इसके लिए ऐसी सामग्री को बनाने, ख़रीदने, अपने पास रखने और उसके वितरण को अपराध के दायरे में लाना होगा।
ALSO READ: सुरक्षा परिषद : मध्य-पूर्व में अस्थिरता पर बैठक, किन देशों ने क्या कहा?
एआई टूल विकसित कर रहे विशेषज्ञों को डिज़ाइन में ही सुरक्षा उपायों को शामिल करना होगा और एआई मॉडल के ग़लत इस्तेमाल को रोकने के लिए ठोस क़दम उठाने होंगे। डिजिटल कंपनियों को एआई द्वारा तैयार की गई, बाल यौन सामग्री को न केवल रोकना होगा, बल्कि उसे साझा किए जाने से भी रोकना होगा। साथ ही, पता लगाने की टेक्‍नोलॉजी में निवेश करना होगा ताकि सामग्री की देखरेख की जा सके।

सम्बंधित जानकारी

यूथ कांग्रेस पर भड़कीं मायावती, विरोध प्रदर्शन को बताया देश का अपमान, IYC ने किया पलटवार

UGC नियमों पर भड़के जगद्गुरु रामभद्राचार्य, केंद्र सरकार को सुनाई खरी-खरी

शंकराचार्य अविमुक्तेश्वरानंद की बढ़ी मुश्किल, पॉक्सो कोर्ट ने दिया FIR दर्ज करने का आदेश

मेरी मर्दों में दिलचस्पी नहीं... महिलाओं को लेकर यह क्या बोल गए ट्रंप

क्या टल जाएगा महायुद्ध? अकेले पड़े डोनाल्ड ट्रंप, ईरान को मिला रूस और चीन का साथ

ओडिशा में ट्रक ने PCR वैन को मारी टक्कर, 5 पुलिसकर्मियों की मौत

Pakistan के हमले से बौखलाया अफगानिस्तान, महिलाओं और बच्चों को बनाया निशाना, बदला लेने की धमकी

82KM के नमो भारत रूट और सुपरफास्ट मेरठ मेट्रो का PM मोदी करेंगे आगाज

भारत में बड़ी आतंकी साजिश नाकाम, तमिलनाडु से 6 बांग्लादेशी संदिग्ध गिरफ्तार, ISI की शह पर थी बड़ी प्लानिंग

9 राज्यों में SIR के बाद 1.70 करोड़ से ज्यादा वोटरों के नाम कटे, गुजरात में सबसे बड़ी कटौती

अगला लेख