नई दिल्लीकुछ ही क्षण पहले
- कॉपी लिंक
पूर्व क्रिकेटर सचिन तेंदुलकर भी डीपफेक का शिकार होने वाले मशहूर हस्तियों की सूची में शामिल हो गए हैं। उनका एक वीडियो सोशल मीडिया पर वायरल हो रहा है, जिसमें वे ‘स्काईवर्ड एविएटर क्वेस्ट’ गेमिंग ऐप को प्रोमोट करते हुए नजर आ रहे हैं।
खुद सचिन ने सोशल मीडिया पर इस वीडियो को पोस्ट करके लिखा कि ये वीडियो नकली है और आपको धोखा दे दिया गया है। टेक्नोलॉजी का इस प्रकार का मिथक बिल्कुल गलत है। उन्होंने इस संदेश के साथ भारत सरकार, सूचना एवं प्रसारण राज्य मंत्री राजीव चन्द्रशेखर और महाराष्ट्र साइबर पुलिस को टैग किया है।
वीडियो में सचिन की बेटी का भी ज़िक्र
अपलोड किए गए वीडियो में वे ये कहते नजर आ रहे हैं कि उनकी बेटी सारा इस गेम से रोज बड़ी मात्रा में पैसे निकालती हैं। वे लोग बताते हैं कि मुझे आश्चर्य होता है कि अब अच्छा पैसा कमाना सबसे आसान हो गया है।
नवंबर में रश्मीका मंदाना का डीपफेक वीडियो वायरल हुआ था
पिछले साल नवंबर में रश्मीका मंदाना का एक डीपफेक वीडियो सोशल मीडिया पर वायरल हुआ था, जिसमें एआई टेक्नोलॉजी से एक इन्फ्लूएंसर के चेहरे में सफाई से रशमिका का चेहरा मॉर्फ किया गया था। सोशल मीडिया पर हजारों लोगों ने रश्मिका के इस पोस्ट किए गए वीडियो को असल समझ लिया क्योंकि दिख रहे एक्सप्रेशन बिल्कुल रियल लग रहे थे।
हालांकि यह महिला रश्मीका नहीं बल्कि जरा पटेल नाम की एक लड़की थी, जिसके चेहरे पर रश्मीका की शक्ल दी गई थी। एएलटी न्यूज के एक पत्रकार ने डीपफेक वीडियो वायरल होने के बाद इसे सार्वजनिक किया था। पूरी खबर यहां पढ़ें…
डीपफेक क्या होता है और कैसे बनता है?
डीपफेक शब्द पहली बार 2017 में इस्तेमाल किया गया था। तब अमेरिका के सोशल न्यूज एग्रीगेटर रेडिट पर डीपफेक से कई सेलिब्रिटीज के वीडियो पोस्ट किए गए थे। इसमें एक्ट्रेस एमा वॉटसन, गैल गैडोट, स्कारलेट जोहानसन के कई अश्लील वीडियो थे।
किसी रियल वीडियो, फोटो या ऑडियंस में दूसरे के चेहरे, आवाज और एक्सप्रेशन को फिट करने के लिए डीपफेक नाम दिया गया है। ये इतनी सफाई से होता है कि कोई भी यकीन कर ले. इसमें असली भी वैसा ही दिखता है।
इसमें मशीन लर्निंग और आर्टिफिशियल स्टाफ का सहारा लिया जाता है। इसमें वीडियो और ऑडियंस को टेक्नोलॉजी और सॉफ्टवेयर की मदद से बनाया जाता है।
एआई और साइबर मैकेनिकल परमाणु ऊर्जा उपकरण अब रेडी टू यूज़ टेक्नोलॉजी और स्टूडियो में उपलब्ध हैं। अब इसका कोई भी उपयोग कर सकते हैं। वर्तमान प्रौद्योगिकी में अब आवाज भी इम्प्रेशन की हो गई है। वॉइस क्लोनिंग में बेहद खतरनाक हो गया है।