आज डिजिटल तकनीक यौन हिंसा का नया औज़ार बनती दिख रही है

Today, digital technology appears to be a new tool for sexual violence

निलेश शुक्ला

हाल ही में एक महिला ने बीबीसी को बताया कि वह खुद को “अमानवीय और एक यौन रूढ़ि में बदल दिया गया” महसूस कर रही हैं, जब एक एआई चैटबॉट का उपयोग करके उनकी तस्वीर से डिजिटल रूप से कपड़े हटा दिए गए—वह भी उनकी किसी अनुमति के बिना। एक सामान्य सार्वजनिक तस्वीर को कुछ सेकंड में यौनिक सामग्री में बदल दिया गया। यह घटना केवल व्यक्तिगत पीड़ा की कहानी नहीं है, बल्कि इस बात का भयावह संकेत है कि आज इस तरह का दुरुपयोग कितनी आसानी से संभव हो गया है। बीबीसी ने सोशल मीडिया प्लेटफॉर्म X पर ऐसे कई उदाहरण देखे हैं, जहाँ लोग एआई टूल्स से महिलाओं को “निर्वस्त्र” करने, उन्हें बिकिनी में दिखाने या यौन परिस्थितियों में डालने के लिए खुलेआम निर्देश दे रहे हैं। यह कोई तकनीकी गलती नहीं, बल्कि एक गंभीर सामाजिक चेतावनी है—कि बिना नियंत्रण की कृत्रिम बुद्धिमत्ता समाज के लिए खतरनाक बनती जा रही है।

पिछले कुछ वर्षों में एआई को मानव जीवन में क्रांतिकारी बदलाव लाने वाली तकनीक के रूप में पेश किया गया। स्वास्थ्य, शिक्षा, शासन और उत्पादकता—हर क्षेत्र में इसके फायदे गिनाए गए। लेकिन आज यही तकनीक डिजिटल यौन हिंसा का नया औज़ार बनती दिख रही है—ऐसी हिंसा जो अदृश्य है, सीमाहीन है और अक्सर कानूनी दायरे से बाहर फिसल जाती है। पारंपरिक उत्पीड़न के विपरीत, इसमें न तो शारीरिक निकटता की जरूरत है और न ही पीड़िता को जानने की। बस एक तस्वीर और एक एल्गोरिद्म—और नुकसान वास्तविक, गहरा और दीर्घकालिक होता है।

एआई-जनित यौन छेड़छाड़ का सबसे चिंताजनक पहलू है—सम्मति का पूरी तरह मिट जाना। शरीर और पहचान से जुड़े मामलों में सहमति मानव गरिमा का मूल आधार है। लेकिन “एआई अनड्रेसिंग” जैसे टूल्स इस आधार को ही खत्म कर देते हैं। बिना जानकारी और अनुमति के किसी महिला की तस्वीर को यौनिक सामग्री में बदल देना उसकी पहचान पर सीधा हमला है। पीड़िता इस पर से नियंत्रण खो देती है कि दुनिया उसे कैसे देखे और याद रखे। उसका शरीर किसी और की कल्पनाओं के लिए कच्चा माल बन जाता है—ऐसी मशीनों के हाथों, जिनमें नैतिकता तब तक नहीं होती जब तक इंसान उन्हें सख्ती से न थोपे।

जो काम पहले तकनीकी कौशल और समय मांगता था, वह आज किसी भी सामान्य व्यक्ति के लिए संभव हो गया है। इस “दुरुपयोग के लोकतंत्रीकरण” ने यौन शोषण को बड़े पैमाने पर फैलने योग्य बना दिया है। एक ही आदेश से बनी सामग्री अनगिनत बार कॉपी, शेयर और संग्रहित की जा सकती है। हटाने के बाद भी ऐसी तस्वीरें दोबारा सामने आ जाती हैं, और पीड़िताओं को बार-बार आघात पहुंचाती हैं। भय, अपमान, चिंता और सामाजिक अलगाव—ये सब इसके मनोवैज्ञानिक दुष्परिणाम हैं, जिन्हें अक्सर “मज़ाक” या “रचनात्मकता” कहकर नज़रअंदाज़ कर दिया जाता है।
इससे भी अधिक खतरनाक है एआई-सक्षम यौन ब्लैकमेल का बढ़ता खतरा। नकली अश्लील तस्वीरों के जरिए पैसे ऐंठने, चुप रहने को मजबूर करने या प्रतिष्ठा नष्ट करने के मामले तेजी से बढ़ रहे हैं। धमकी दी जाती है कि तस्वीरें परिवार, नियोक्ता या सार्वजनिक मंचों पर फैला दी जाएंगी। रूढ़िवादी समाजों में इसके परिणाम विनाशकारी हो सकते हैं—सामाजिक बहिष्कार, रोज़गार का नुकसान,शारीरिक हिंसा तक। एआई ने यौन ब्लैकमेल को कम जोखिम और अधिक प्रभाव वाला अपराध बना दिया है, जहाँ अपराधी गुमनामी में छिप जाते हैं और शर्म व सबूत का बोझ पीड़िता पर डाल दिया जाता है।

सोशल मीडिया प्लेटफॉर्म और एआई डेवलपर्स अपनी जिम्मेदारी से बच नहीं सकते। जब कोई चैटबॉट वास्तविक लोगों की तस्वीरों को यौनिक रूप से बदलने के लिए प्रेरित किया जा सकता है, तो यह डिज़ाइन, निगरानी और जवाबदेही की विफलता है। यह कहना कि “एआई तटस्थ है”—बौद्धिक ईमानदारी नहीं है। एल्गोरिद्म अपने निर्माताओं की प्राथमिकताओं और मूल्यों को दर्शाते हैं। जब सुरक्षा और गरिमा से ऊपर एंगेजमेंट और वायरलिटी रखी जाती है, तो दुरुपयोग स्वाभाविक परिणाम बन जाता है। अभिव्यक्ति की स्वतंत्रता डिजिटल यौन हिंसा का औचित्य नहीं बन सकती। नैतिक सीमाओं के बिना स्वतंत्रता, अंततः उत्पीड़न का लाइसेंस बन जाती है।

यह समस्या किसी एक देश तक सीमित नहीं है—यह वैश्विक है। एआई-जनित सामग्री पल भर में सीमाएं पार कर जाती है, जबकि कानून राष्ट्रीय दायरों में बंधे रहते हैं। एक देश में बैठा व्यक्ति, दूसरे देश की महिला को डिजिटल रूप से प्रताड़ित कर सकता है—और न्याय की संभावना नगण्य रह जाती है। इसलिए यह मुद्दा संयुक्त राष्ट्र, G20 और वैश्विक मानवाधिकार मंचों पर उठाया जाना चाहिए। एआई-सक्षम यौन शोषण को तकनीकी नीति का नहीं, बल्कि गंभीर मानवाधिकार उल्लंघन का मुद्दा माना जाना चाहिए।

अब कड़े वैश्विक नियमन की आवश्यकता टाली नहीं जा सकती। बिना सहमति के एआई-जनित यौन सामग्री के निर्माण और प्रसार को स्पष्ट रूप से अपराध घोषित किया जाना चाहिए। एआई कंपनियों पर कानूनी बाध्यता हो कि वे वास्तविक व्यक्तियों के निर्वस्त्रीकरण, यौनिकरण या छेड़छाड़ को रोकने के लिए मजबूत सुरक्षा उपाय बनाएं। सोशल मीडिया प्लेटफॉर्म्स को ऐसी सामग्री की मेजबानी या सुविधा देने के लिए जवाबदेह ठहराया जाए, और त्वरित हटाने की प्रभावी व्यवस्था लागू हो। पीड़ितों को कानूनी सहायता, मानसिक स्वास्थ्य समर्थन और डिजिटल क्षतिपूर्ति की त्वरित पहुंच मिलनी चाहिए।

एआई युग में हम एक निर्णायक मोड़ पर खड़े हैं। तकनीक या तो मानव गरिमा को सशक्त करेगी, या उसे व्यवस्थित रूप से कमजोर करेगी। बीबीसी द्वारा उजागर की गई घटना केवल एक महिला या एक एआई टूल की कहानी नहीं है—यह आने वाले समय का संकेत है। यदि अभी ठोस कदम नहीं उठाए गए, तो एआई-जनित यौन शोषण सामान्य हो जाएगा, और उसे नियंत्रित करना कहीं अधिक कठिन होगा।

असल सवाल यह नहीं है कि हमारे एल्गोरिद्म कितने उन्नत हो सकते हैं, बल्कि यह है कि हम उन्हें कितनी जिम्मेदारी से इस्तेमाल करते हैं। क्या हम मशीनों को सहमति की परिभाषा बदलने देंगे, या मानवता एक स्पष्ट रेखा खींचेगी? इसका उत्तर न केवल एआई के भविष्य को तय करेगा, बल्कि हमारी डिजिटल सभ्यता की नैतिक रीढ़ को भी।