ललित गर्ग
डीपफेक व्यक्तिगत जीवन से आगे बढ़ कर अब राजनीतिक एवं वैश्विक सन्दर्भों के लिये एक गंभीर खतरा बनता जा रहा है। इक्कीसवीं सदी में कृत्रिम बौद्धिकता (आर्टिफ़िशियल इंटेलिजेंस या एआई) तकनीक के आगमन ने अगर सुविधाओं के नए रास्ते खोले हैं तो दुनियाभर में चिंताएं भी बढ़ा दी हैं। इस तकनीक का दुरुपयोग बड़े पैमाने पर शुरू हो चुका है, एआइ के जरिए डीपफेक वीडियो बनाकर सोशल मीडिया पर वायरल किए जा रहे हैं। गलत सूचनाएं, ऑडियो-वीडियो और तस्वीरें फैलाने वालों के हाथों में एआइ ने खतरनाक उस्तरा थमा दिया है, जो राष्ट्रीय सुरक्षा एवं राजनीतिक मुद्दों के साथ व्यक्तिगत छवि को घूमिल करने का यह हथियार अनेक चिन्ताओं को बढ़ा रहा है और बड़े संकट का सबब बनता जा रहा है। डीपफेक ने प्रधानमंत्री नरेंद्र मोदी को भी नहीं बक्शा है, उन्हें भी परेशान कर दिया है। उनका एक वीडियो इन दिनों यू-ट्यूब सहित सभी सोशल मीडिया प्लेटफॉर्म्स पर खूब चर्चित हो रहा है, इसमें उनको गरबा करते दिखाया गया है। ये पूरा वीडियो डीपफेक नाम की आर्टिफिशियल इंटेलिजेंस से तैयार किया गया है। इसी तरह देश एवं विदेश की अनेक हस्तियों के अनेक अश्लील एवं राजनीतिक डीपफेक व्यापक स्तर पर प्रसारित हो रहे हैं।
डीपफेक एक ऐसी तकनीक है जिसमे आप कृत्रिम बौद्धिकता की मदद एवं तकनीक से वीडियो, तस्वीरों और ऑडियो में हेरफेर कर सकते है। इस तकनीक की मदद से आप किसी दूसरे व्यक्ति की फ़ोटो या वीडियो पर किसी और का चेहरा लगाकर उसे पूरी तरह से बदल भी सकते है। एक रिपोर्ट के अनुसार इसका सबसे ज्यादा इस्तेमाल लगभग 96 प्रतिशत के आसपास अश्लील सामग्री बनाने में होता है। कुछ लोग इसका इस्तेमाल अपने मर चुके रिश्तेदारों की तस्वीरों को ऐनिमेट करने में भी करते हैं लेकिन अब डीपफेक कंटेंट का इस्तेमाल देश एवं विदेश की राजनीति में भी होने लगा है। राजनीतिक पार्टियाँ अपने चुनावी प्रचार में इस तकनीक का जमकर इस्तेमाल कर रही है। आम जनता को गुमराह करने एवं बड़ी हस्तियों की छवि एवं प्रतिष्ठा को धूमिल करने में अब इस तकनीक का व्यापक उपयोग होने लगा है। अनेक फिल्मी हस्तियों विशेषतः हीराइनों की अविश्वसनीय अश्लील एवं नग्न वीडियो बड़ी संख्या में आनलाइन आसानी से देखी जा सकती है। पब्लिक प्लैटफॉर्म्स पर मौजूद फोटोज की मदद से आसानी से डीपफेक विडियो बनाया जा सकता है। ऐसे वक्त में जब कोई नौसिखिया भी आसानी से फर्जी विडियो बनाकर सच और झूठ का फर्क मिटा सकता है, किसी भी विडियो पर झट से भरोसा ना करें क्योंकि डीपफेक विडियोज से घिरी वर्चुअल दुनिया में आंखों देखा सबकुछ हमेशा सच नहीं होता।
देश-विदेश में कई प्रतिष्ठित हस्तियां डीपफेक वीडियो का शिकार हो चुकी हैं। कई विदेशी हस्तियों के भी डीपफेक वीडियो सामने आ चुके हैं। यूक्रेन के राष्ट्रपति व्लादिमीर जेलेंस्की के डीपफेक वीडियो में तो वे रूस से लड़ रही अपनी सेना को सरेंडर करने के लिए कह रहे हैं। इजरायल-हमास युद्ध के भी कई डीपफेक वीडियो सोशल मीडिया पर वायरल हो चुके हैं। तभी प्रधानमंत्री नरेंद्र मोदी ने भी डीपफेक को देश के लिए सबसे बड़े खतरों में से एक बता इसके खिलाफ जनता को शिक्षित एवं सावधान करने पर जोर दिया है। भारत के लिये यह बड़ा खतरा इसलिये भी है कि भारत विविधता वाला देश है, यहां की जनता छोटी-छोटी बातों पर भावुक एवं भड़क जाती है। असली एवं नकली यानी डीपफेक का पता लगाने के लिये सतर्कता एवं सावधानी बरतने की अपेक्षा है। अगर वीडियो में आँख और नाक कहीं और जा रही है या वीडियो में पलक नहीं झपकाई गई है तो समझ जाइए यह डीपफेक कंटेंट है। कंटेंट की कलरिंग को भी देखकर पता लग सकता है कि तस्वीर या वीडियो में छेड़छाड़ हुई है। ढेरों चर्चित महिला हस्तियों एवं सिने कलाकारों के चेहरे डीपफेक टेक की मदद से पॉर्न वीडियोज पर लगाकर उन्हें ऑनलाइन शेयर किया जा रहा है। पॉप्युलर अमेरिकन अडल्ट साइट की ट्रेंडिंग टैग्स रिपोर्ट दिखाती है कि ऐसे वीडियोज पिछले कुछ महीने में तेजी से चर्चित हुए हैं और इन्हें व्यापक रूप में सर्च किया जा रहा है या देखा जा रहा है। इस टेक से किसी का फेक न्यूड वीडियो बनाकर उसे ब्लैकमेल भी किया जा सकता है और ऐसे मामले सामने आए भी हैं। एक्सपर्ट्स का मानना है कि जैसे-जैसे यह टेक्नॉलजी पॉप्युलर होगी, इसका गलत इस्तेमाल और ऐसे क्राइम भी बढ़ते जाएंगे।
कृत्रिम बुद्धि, कंप्यूटर विज्ञान की एक शाखा है जो मशीनों और सॉफ्टवेयर को बुद्धि के साथ विकसित करता है। 1955 में जॉन मैकार्थी ने इसको कृत्रिम बुद्धि का नाम दिया और उसके बारे में ‘यह विज्ञान और इंजीनियरिंग के बुद्धिमान मशीनें बनाने के’ के रूप परिभाषित किया। कृत्रिम बुद्धि अनुसंधान के लक्ष्यों में तर्क, ज्ञान की योजना, सीखने, धारणा और वस्तुओं में हेरफेर करने की क्षमता, आदि शामिल हैं। वर्तमान में, इस लक्ष्य तक पहुंचने के लिए सांख्यिकीय विधियों, कम्प्यूटेशनल बुद्धि और पारंपरिक खुफिया शामिल हैं। कृत्रिम बुद्धि का दावा इतना है कि मानव की बुद्धि का एक केंद्रीय संपत्ति एक मशीन द्वारा अनुकरण कर सकता है। बिजली के बल्ब और मूवी कैमरे के आविष्कारक थॉमस अल्वा एडिसन ने कहा था कि हर नई तकनीक सुविधाओं के साथ कुछ नकारात्मक पहलू भी लाती है। नित नई तकनीक के दौर से गुजर रही दुनिया में उनका कथन प्रासंगिक बना हुआ है। कृत्रिम बौद्धिकता तकनीक के आगमन ने अगर सुविधाओं के नए रास्ते खोले हैं तो दुनियाभर में चिंताएं भी बढ़ा दी हैं। इस तकनीक का दुरुपयोग बड़े पैमाने पर शुरू हो चुका है। किसी भी बात या घटना के सच होने का सबसे बड़ा सबूत उसके किसी विडियो को माना जाता रहा है लेकिन अब चीजें बदल गई हैं। आंखों देखी पर और किसी भी तरह के डिजिटल फोटो या विडियो पर भरोसा नहीं किया जा सकता। डीपफेक टेक्नॉलजी की मदद से ऐसे वीडियो बनाए जा सकते हैं कि बड़े-बड़े एक्सपर्ट्स भी गच्चा खा जाएं। सामान्य इंटरनेट यूजर शायद ही समझ पाए कि विडियो डीपफेक है और उसमें दिखने वाला शख्स कोई और है। यह टेक्नॉलजी वीडियोज के साथ बिल्कुल वैसे ही काम करती है, जैसा फोटो के लिए फोटोशॉप करता है।
सोशल मीडिया पर अभिनेत्री रश्मिका मंदाना का एक वीडियो वायरल हो रहा है, यह वीडियो फेक (डीपफेक) है। दरअसल इस वीडियो को लेकर मेगा स्टार अमिताभ बच्चन ने भी चिंता जताई है। इस डीपफेक वीडियो पर दिल्ली महिला आयोग ने स्वतः संज्ञान लेते हुए दिल्ली पुलिस में मामला दर्ज कराया है। इस मामले में एक गिरफ्तारी भी हो चुकी है। अब काजोल का भी डीपफेक सोशल मीडिया पर आ गया है। इसमें उनको कपड़े बदलते दिखाया गया है। इसमें ओरिजनल वीडियो ब्रिटिश सोशल मीडिया इन्फ्लुएंसर रोजी ब्रीन का है। उन्होंने ये वीडियो टिकटॉक पर ‘गेट रेडी विद मी’ सीरीज के लिए बनाया था। भारत में डीपफेक तकनीक का दुरुपयोग रोकने और फर्जी वीडियो की पहचान के लिए बेहतर प्रौद्योगिकी विकसित करने की जरूरत है। चिंता की बात है कि सोशल मीडिया मंचों और टेक कंपनियों ने डीपफेक वीडियो पर अंकुश के लिए कोई बड़ी पहल नहीं की है। लेकिन भारत सरकार इस मुद्दे पर इसकी घातकता को देखते हुए गंभीर है। सरकार इंटरनेट इस्तेमाल करने वाले सभी डिजिटल नागरिक की सुरक्षा और भरोसे को सुनिश्चित करने को लेकर प्रतिबद्ध हैं। सरकार ने सोशल मीडिया कंपनियों को गलत सूचनाओं, डीपफेक, अन्य अवांछित सामग्री की पहचान कर 36 घंटे के अंदर उन्हें हटाने के निर्देश दिए जा चुके हैं। सूचना प्रौद्योगिकी मंत्री अश्विनी वैष्णव ने साफ कह दिया कि सोशल मीडिया प्लेटफॉर्म अगर डीपफेक कंटेंट को हटाने के लिए पर्याप्त कदम नहीं उठाते हैं तो उन्हें मिलने वाले संरक्षण को वापस ले लिया जाएगा। कई देशों की सरकारें डीपफेक के नियमन की तैयारी में हैं। कुछ अमरीकी राज्यों में बगैर सहमति डीपफेक बनाने को अपराध घोषित किया जा चुका है। यूरोपीय देशों में भी कानून बनाने की तैयारी चल रही है। सिर्फ कानून बनाने से समस्या से पार पाना संदिग्ध है। जरूरत ऐसे तंत्र की है, जो डीपफेक की सतत निगरानी रख अवांछित सामग्री फैलाने के सभी रास्ते बंद रखे।