DEFENCE / PARAMILITARY / NATIONAL & INTERNATIONAL SECURITY AGENCY / FOREIGN AFFAIRS / MILITARY AFFAIRS

डीपफेक के खिलाफ डिजिटल इंडिया बिल लाएगी ​​​​​​​सरकार:शाह-सचिन-रश्मिका के फेक वीडियो आए थे; मोदी बोले थे- AI जनेरेटेड कंटेंट्स पर वाटरमार्क जरूरी

डीपफेक के खिलाफ डिजिटल इंडिया बिल लाएगी ​​​​​​​सरकार:शाह-सचिन-रश्मिका के फेक वीडियो आए थे; मोदी बोले थे- AI जनेरेटेड कंटेंट्स पर वाटरमार्क जरूरी

नई दिल्ली

गृहमंत्री अमित शाह, पूर्व क्रिकेटर सचिन तेंदुलकर और बॉलीवुड एक्ट्रेस आलिया भट्ट का डीपफेक वीडिया वायरल हो चुका है।

आर्टिफिशियल इंटेलिजेंस (AI) से जनरेट किए गए डीपफेक वीडियो और कंटेंट पर रोक लगाने के लिए मोदी सरकार डिजिटल इंडिया बिल लाने वाली है। इंडिया टुडे की रिपोर्ट के मुताबिक, इस विधेयक में AI टेक्नोलॉजी के बेहतर उपयोग और तरीकों पर चर्चा होगी। सूत्रों के मुताबिक, सरकार इस बिल के लिए विपक्षी दलों का समर्थन लेने की भी कोशिश करेगी।

24 जून से शुरू हो रहे 18वीं लोकसभा के पहले सत्र में सबसे पहले नए सांसदों का शपथ ग्रहण और राष्ट्रपति का अभिभाषण होगा। इसी सत्र में सरकार पूर्ण बजट भी पेश करेगी। सूत्रों के मुताबिक, बजट के अलावा सत्र में डिजिटल इंडिया बिल पर भी बहस हो सकती है। इस बिल में सोशल मीडिया पर जारी होने वाले वीडियो को रेगुलेट करने का भी प्रावधान हो सकता है।

PM नरेंद्र मोदी ने 28 मार्च को माइक्रोसॉफ्ट के को-फाउंडर बिल गेट्स को दिए एक इंटरव्यू में डीपफेक वीडियो के खतरे को बताया था। मोदी ने कहा था- AI अच्छी चीज है, लेकिन अगर यह सही ट्रेनिंग के बिना किसी को दिया जाता है तो इसका दुरुपयोग होने की आशंका है।

मोदी ने कहा- भारत जैसे लोकतांत्रिक देश में कोई भी डीपफेक का इस्तेमाल कर सकता है। इसलिए AI जनेरेटेड कंटेंट्स पर वाटरमार्क होना चाहिए, ताकि लोगों को पता चले कि यह AI जनेरेटेड है। इससे कोई गुमराह नहीं होगा। एक्ट्रेस रश्मिका मंदाना, सचिन तेंदुलकर और गृह मंत्री अमित शाह तक के डीपफेक वीडियो आ चुके हैं।

चुनाव के दौरान 27 अप्रैल को अमित शाह का डीपफेक वीडियो वायरल हुआ था। शाह ने असम के गुवाहाटी में प्रेस कॉन्फ्रेंस कर फेक और ओरिजिनल वीडियो के बीच का अंतर बताया था।

डीपफेक रोकने के लिए सरकार ने जनवरी में तय किए थे नियम
डीपफेक रोकने के लिए केंद्रीय IT मंत्रालय ने नए नियम चुनाव से पहले जनवरी में ही तैयार कर लिए थे। इसके मुताबिक, जो सोशल मीडिया प्लेटफॉर्म नए नियमों का उल्लंघन करेगा, उसका भारत में कारोबार रोक दिया जाएगा।

IT मंत्रालय ने बताया था कि 17 जनवरी को सोशल मीडिया प्लेटफॉर्म्स और अन्य स्टेकहोल्डर्स के बीच हुई दो बार मीटिंग हुई। इसमें तय हुआ था कि सोशल मीडिया प्लेटफॉर्म डीपफेक कंटेंट को AI के जरिए फिल्टर करने का काम करेंगे। डीपफेक कंटेंट डालने वालों पर IPC की धाराओं और IT एक्ट के तहत केस दर्ज होंगे।

पिछले साल तत्कालीन IT राज्य मंत्री राजीव चंद्रशेखर ने कहा था कि सरकार फेक वीडियो और सोशल मीडिया के वीडियो को रेगुलेट करने का बिल लाने की तैयारी में है। उन्होंने फाइनेंशियल एक्सप्रेस के डिजीफंड एंड सेफ्टी समिट में कहा था कि इस बिल पर लंबी चर्चा और बहस की जरूरत है, जिसमें समय लग सकता है। चुनाव से पहले इसे संसद के पटल पर लाना मुमकिन नहीं लगता।

ऐसे होंगे नए नियम: फेक कंटेंट जहां अपलोड होगा, उस प्लेटफॉर्म को भी जिम्मेदार मानेंगे

  • डीप फेक कंटेंट मिलते ही कोई भी FIR करा सकता है। विक्टिम और उसकी तरफ से नियुक्त व्यक्ति को भी केस दर्ज कराने के अधिकार होंगे।
  • सोशल मीडिया प्लेटफॉर्म यूजर्स से यह शपथ लेगा कि वह डीपफेक कंटेंट नहीं डालेगा। प्लेटफॉर्म अपने यूजर्स को इस संबंध में अलर्ट मैसेज देंगे। सहमति के बाद ही यूजर अकाउंट एक्सेस कर सकेगा।
  • डीप फेक कंटेंट को 24 घंटे में हटाना होगा। जिस यूजर ने कंटेंट अपलोड किया है, उसका अकाउंट बंद कर सूचना दूसरे प्लेटफॉर्म को देनी होगी, ताकि आरोपी वहां अकाउंट न बना सके।

नेता-क्रिकेटर और बॉलीवुड एक्टर्स डीपफेक का शिकार हुए

1. अमित शाह का डीपफेक वीडियो, SC-ST का आरक्षण खत्म करने की बात करते दिखे

लोकसभा चुनाव के दौरान अमित शाह का यह वीडियो वायरल हुआ था। इसमें वे जनसभा को संबोधित करते नजर आ रहे हैं। शाह ने कांग्रेस पर इसे वायरल करने का आरोप लगाया था।

27 अप्रैल को सोशल मीडिया पर अमित शाह का एक फेक वीडियो वायरल हुआ। इसे तेलंगाना कांग्रेस और CM रेवंत रेड्डी ने शेयर किया था। इसमें वे SC-ST और OBC के आरक्षण को खत्म करने की बात करते दिख रहे हैं। PTI की फैक्ट चैक यूनिट ने कहा कि मूल वीडियो में अमित शाह ने तेलंगाना में मुसलमानों के लिए असंवैधानिक आरक्षण हटाने की बात कही थी।

2. सचिन तेंदुलकर का डीपफेक वीडियो, गेमिंग ऐप को प्रमोट करते दिखे

सचिन तेंदुलकर के इस वीडियो को उन्हीं की आवाज में डब किया गया था। सचिन की आवाज के हिसाब से उनके एक्सप्रेशन बदले गए थे।

पूर्व क्रिकेटर सचिन तेंदुलकर का डीपफेक वीडियो जनवरी में वायरल हुआ था। इसमें वे ‘स्काईवर्ड एविएटर क्वेस्ट’ गेमिंग ऐप को प्रमोट करते नजर आ रहे थे। खुद सचिन ने सोशल मीडिया पर इस वीडियो को पोस्ट करके लिखा कि ये वीडियो नकली है और आपको धोखा देने के लिए बनाया गया है। टेक्नोलॉजी का इस प्रकार का दुरुपयोग बिल्कुल गलत है।

3. आलिया भट्ट का डीपफेक वीडियो, कैमरे के सामने मेकअप करती नजर आईं

आलिया के डीपफेक वीडियो पर सोशल मीडिया यूजर्स ने रिएक्शन देते हुए लिखा- मुझे लगा ये वाकई आलिया हैं।

आलिया भट्ट का डीपफेक 15 जून को वायरल हुआ। ये दूसरी बार है जब आलिया का डीपफेक वीडियो सामने आया है। समीक्षा अवतार नाम की एक यूजर ने इंस्टाग्राम पर वीडियो अपलोड किया। इस वीडियो को अब तक 17 मिलियन से ज्यादा बार देखा जा चुका है। वीडियो में आलिया भट्ट को ब्लैक कुर्ता पहने मेकअप करते दिखाया गया है।

4. नवंबर में रश्मिका मंदाना का डीपफेक वीडियो वायरल हुआ था

इस फेक वीडियो में AI टेक्नोलॉजी से एक इन्फ्लूएंसर के चेहरे पर रश्मिका का चेहरा मोर्फ किया गया था।

पिछले साल नवंबर में एक्ट्रेस रश्मिका मंदाना का डीपफेक वीडियो सोशल मीडिया पर वायरल हआ था, जिसमें AI टेक्नोलॉजी से एक इन्फ्लूएंसर के चेहरे पर रश्मिका का चेहरा मोर्फ किया गया था। सोशल मीडिया पर हजारों लोगों ने रश्मिका के इस फेक वीडियो को असली समझ लिया क्योंकि उसमें चेहरे के एक्सप्रेशन बिल्कुल रियल लग रहे थे।

डीपफेक होता क्या है और कैसे बनाया जाता है?
डीपफेक शब्द पहली बार 2017 में यूज किया गया था। तब अमेरिका के सोशल न्यूज एग्रीगेटर Reddit पर डीपफेक आईडी से कई सेलिब्रिटीज के वीडियो पोस्ट किए गए थे। इसमें एक्ट्रेस एमा वॉटसन, गैल गैडोट, स्कारलेट जोहानसन के कई पोर्न वीडियो थे।

किसी रियल वीडियो, फोटो या ऑडियो में दूसरे के चेहरे, आवाज और एक्सप्रेशन को फिट कर देने को डीपफेक नाम दिया गया है। ये इतनी सफाई से होता है कि कोई भी यकीन कर ले। इसमें फेक भी असली जैसा लगता है। इसमें मशीन लर्निंग और आर्टिफिशियल इंटेलिजेंस का सहारा लिया जाता है। इसमें वीडियो और ऑडियो को टेक्नोलॉजी और सॉफ्टवेयर की मदद से बनाया जाता है।

AI और साइबर एक्सपर्ट पुनीत पांडे बताते हैं कि अब रेडी टु यूज टेक्नोलॉजी और पैकेज उपलब्ध है। अब इसे कोई भी उपयोग कर सकता है। वर्तमान टेक्नोलॉजी में अब आवाज भी इम्प्रूव हो गई है। इसमें वॉयस क्लोनिंग बेहद खतरनाक हो गई है।

error: Content is protected !!