सचिन तेंदुलकर डीपफेक का शिकार हुए:गेम के प्रमोशन के लिए उनके वीडियो पर उन्हीं की आवाज डब की गई; बोले- ये नकली और गलत
सचिन ने सोशल मीडिया पर इस वीडियो को पोस्ट करके लिखा कि ये वीडियो नकली है और आपको धोखा देने के लिए बनाया गया है।
पूर्व क्रिकेटर सचिन तेंदुलकर भी डीपफेक का शिकार हुए हैं। उनका एक वीडियो सोशल मीडिया पर वायरल हो रहा है, जिसमें वे ‘स्काईवर्ड एविएटर क्वेस्ट’ गेमिंग ऐप को प्रमोट करते नजर आ रहे हैं।
खुद सचिन ने सोशल मीडिया पर इस वीडियो को पोस्ट करके लिखा कि ये वीडियो नकली है और आपको धोखा देने के लिए बनाया गया है। टेक्नोलॉजी का इस प्रकार का दुरुपयोग बिल्कुल गलत है। उन्होंने इस मैसेज के साथ भारत सरकार, सूचना एवं प्रसारण राज्य मंत्री राजीव चंद्रशेखर और महाराष्ट्र साइबर पुलिस को टैग किया है।
वीडियो में सचिन की बेटी का भी जिक्र
इसमें फेक वीडियो में वे ये कहते नजर आते हैं कि उनकी बेटी सारा इस गेम से रोजाना बड़ी मात्रा में पैसा निकालती हैं। वे लोगों को बताते हैं कि मुझे आश्चर्य होता है कि अब अच्छा पैसा कमाना कितना आसान हो गया है।
सचिन ने इस वीडियो के बारे में सोशल मीडिया पर पोस्ट करके लोगों को आगाह किया है।
नवंबर में रश्मिका मंदाना का डीपफेक वीडियो वायरल हुआ था
पिछले साल नवंबर में रश्मिका मंदाना का एक डीपफेक वीडियो सोशल मीडिया पर वायरल हआ था, जिसमें AI टेक्नोलॉजी से एक इन्फ्लूएंसर के चेहरे पर बड़ी सफाई से रश्मिका का चेहरा मोर्फ किया गया था। सोशल मीडिया पर हजारों लोगों ने रश्मिका के इस फेक वीडियो को असली समझ लिया क्योंकि उसमें दिख रहे एक्सप्रेशन बिल्कुल रियल लग रहे थे।
इस फेक वीडियो में AI टेक्नोलॉजी से एक इन्फ्लूएंसर के चेहरे पर रश्मिका का चेहरा मोर्फ किया गया था।
हालांकि यह महिला रश्मिका नहीं बल्कि जारा पटेल नाम की एक लड़की थी, जिसके चेहरे को बदलकर रश्मिका का चेहरा लगा दिया गया था। ALT न्यूज के एक जर्नलिस्ट ने डीपफेक वीडियो वायरल होने के बाद इसका खुलासा किया था।
डीपफेक होता क्या है और कैसे बनाया जाता है?
डीपफेक शब्द पहली बार 2017 में यूज किया गया था। तब अमेरिका के सोशल न्यूज एग्रीगेटर Reddit पर डीपफेक आईडी से कई सेलिब्रिटीज के वीडियो पोस्ट किए गए थे। इसमें एक्ट्रेस एमा वॉटसन, गैल गैडोट, स्कारलेट जोहानसन के कई पोर्न वीडियो थे।
किसी रियल वीडियो, फोटो या ऑडियो में दूसरे के चेहरे, आवाज और एक्सप्रेशन को फिट कर देने को डीपफेक नाम दिया गया है। ये इतनी सफाई से होता है कि कोई भी यकीन कर ले। इसमें फेक भी असली जैसा लगता है।
इसमें मशीन लर्निंग और आर्टिफिशियल इंटेलिजेंस का सहारा लिया जाता है। इसमें वीडियो और ऑडियो को टेक्नोलॉजी और सॉफ्टवेयर की मदद से बनाया जाता है।
AI और साइबर एक्सपर्ट पुनीत पांडे बताते हैं कि अब रेडी टु यूज टेक्नोलॉजी और पैकेज उपलब्ध है। अब इसे कोई भी उपयोग कर सकता है। वर्तमान टेक्नोलॉजी में अब आवाज भी इम्प्रूव हो गई है। इसमें वॉयस क्लोनिंग बेहद खतरनाक हो गई है।
Add Comment