पूनम शर्मा
प्रधानमंत्री नरेंद्र मोदी ने स्वयं डीपफेक तकनीक को भारत के सामने “सबसे बड़ा खतरा” बताया है — और वाकई में, यह खतरा अब सिर्फ भविष्य की कल्पना नहीं, बल्कि वर्तमान का कठोर यथार्थ बन चुका है।
डीपफेक तकनीक, जो पहले महज मज़ाक या मनोरंजन तक सीमित थी, अब राजनीतिक विमर्श को तोड़ने-मरोड़ने का हथियार बन चुकी है। एआई द्वारा तैयार किए गए वीडियो, जिसमें नेता झूठे बयान देते नज़र आते हैं या मृत व्यक्तियों को ज़िंदा दिखाया जाता है, भारत के लोकतांत्रिक ताने-बाने को गहराई से प्रभावित कर रहे हैं।
डीपफेक का चुनावी मैदान में प्रवेश
आज भारत में चुनाव प्रचार सिर्फ दीवारों पर पोस्टर चिपकाने या रैली निकालने तक सीमित नहीं है। अब प्रचार की दुनिया में एआई जनरेटेड डीपफेक वीडियो का दबदबा है। दो तरह की डीपफेक सामग्री बनाई जा रही है: एक, जिससे उम्मीदवार की छवि सकारात्मक दिखे; और दूसरी, जिससे विपक्ष को बदनाम किया जा सके।
एक वायरल डीपफेक वीडियो में गृहमंत्री अमित शाह को आरक्षण हटाने की बात कहते दिखाया गया — जबकि हकीकत में उन्होंने ऐसा कुछ नहीं कहा था। इसी तरह, श्रीलंका के तमिल टाइगर नेता की दिवंगत बेटी द्वारका को ‘जिंदा’ कर एक रैली में भाषण देते दिखाया गया, जिससे खास जनसमूहों की सहानुभूति बटोरी गई।
टेक्नोलॉजी और गोपनीयता की जंग
WhatsApp जैसे मैसेजिंग ऐप्स एंड-टू-एंड एन्क्रिप्टेड होते हैं, यानी उनमें कंटेंट मॉडरेशन वैसा नहीं हो सकता जैसा इंस्टाग्राम या एक्स (Twitter) जैसे प्लेटफॉर्म्स में होता है। क्लाइंट-साइड स्कैनिंग जैसे तकनीकी समाधान प्रस्तावित किए जा रहे हैं, लेकिन ये निजता और फ्री स्पीच पर गंभीर सवाल खड़े करते हैं।
आईटी नियम 2021 की धारा 4(2) के अनुसार सरकार WhatsApp से संदेश भेजने वाले का स्रोत जानने की मांग कर सकती है, लेकिन कंपनी ने इसे दिल्ली हाईकोर्ट में चुनौती दी है।
चुनाव आयोग और सरकारी प्रयास
भारत का चुनाव आयोग (ECI) सतर्क है। अप्रैल 2024 में उसने “मिथ बनाम सच्चाई रजिस्टर” नाम से एक ऑनलाइन पोर्टल लॉन्च किया, जिसमें वायरल झूठों का खंडन किया जाता है। मई 2024 में सोशल मीडिया पर जिम्मेदार व्यवहार को लेकर पार्टियों को निर्देश दिए गए — तीन घंटे में फर्जी सामग्री हटाना, जिम्मेदार कार्यकर्ताओं को चेतावनी देना, और ज़रूरत पड़ने पर शिकायत अपीलीय समिति तक मामला ले जाना अनिवार्य किया गया।
इलेक्ट्रॉनिक्स एवं सूचना प्रौद्योगिकी मंत्रालय (MeitY) ने भी स्पष्ट किया कि अगर कोई एआई का दुरुपयोग कर जानबूझकर गलत सूचना फैलाता है, तो उसे “प्रतिरूपण” (impersonation) माना जाएगा और आईटी अधिनियम के तहत दंडनीय होगा।
भारत में कानून की चुनौतियाँ
भारत में डीपफेक से निपटने के लिए अभी कोई विशेष कानून नहीं है। आईटी अधिनियम की विभिन्न धाराएँ और आपराधिक संहिता (BNS) की कुछ धाराएँ लागू हो सकती हैं, लेकिन ये काफी बिखरी हुई हैं और डीपफेक जैसे आधुनिक अपराधों के लिए पर्याप्त स्पष्टता नहीं देतीं।
डीपफेक की तकनीकी पहचान भी बड़ी चुनौती है। भारत में पुलिस या न्यायिक संस्थाओं के पास अभी पर्याप्त तकनीकी विशेषज्ञता नहीं है। साथ ही, डीपफेक बनाने वाले अकसर गुमनाम रहते हैं — वीपीएन और फर्जी अकाउंट्स के ज़रिए उनका पता लगाना मुश्किल होता है।
समाधान: छह स्तंभों पर आधारित रणनीति
इस समस्या से निपटने के लिए लेखकों ने एक छह-स्तरीय रणनीति प्रस्तावित की है:
विशेष कानून: Digital India Act के तहत ‘Deepfake और AI गलत सूचना अधिनियम’ बनाया जाए, जिसमें डीपफेक को स्पष्ट रूप से परिभाषित कर दंडित किया जाए।
स्वदेशी तकनीक विकास: डीपफेक डिटेक्शन टूल्स, डिजिटल वॉटरमार्किंग और वास्तविकता सत्यापन तकनीक में निवेश हो।
प्राइवेसी बाय डिज़ाइन: हर AI प्रणाली में गोपनीयता को प्राथमिकता दी जाए — जैसे डेटा न्यूनतम उपयोग, सूचित सहमति और “भूलने का अधिकार” (Right to be Forgotten)।
प्लेटफॉर्म उत्तरदायित्व: सोशल मीडिया प्लेटफॉर्म्स पर त्वरित कार्यवाही के स्पष्ट प्रोटोकॉल हों।
जनजागरूकता: नागरिकों को डिजिटल साक्षरता और डीपफेक की पहचान के लिए प्रशिक्षित किया जाए।
अंतरराष्ट्रीय सहयोग: वैश्विक मंचों पर सक्रिय सहभागिता से अनुभव, नीतियाँ और तकनीकी समाधान साझा किए जाएं।
डीपफेक सिर्फ एक तकनीकी चुनौती नहीं, बल्कि हमारे लोकतंत्र की बुनियाद पर हमला है। भारत को चाहिए कि वह कानून, तकनीक और शिक्षा के समन्वय से इस खतरे का मुक़ाबला करे — ताकि सच, झूठ की चकाचौंध में गुम न हो जाए।