आधुनिकता अपने साथ खतरा भी लाती है. साउथ एक्ट्रेस रश्मिका मंदाना की हाल ही में वायरल हो रही इस वीडियो से ये साफ जाहिर है. दरअसल फिलहाल इंटरनेट पर रश्मिका मंदाना की एक डीपफेक वीडियो वायरल हो रही है, जिसमें वो काफी बोल्ड अंदाज में नजर आ रही हैं. हालांकि इस वीडियो की पड़ताल में मालूम चला है कि, ये वीडियो पूरी तरह से नकली है. बावजूद इसके इसे सोशल मीडिया पर खूब शेयर किया जा रहा है. ऐसे में सवाल है कि इस आधुनिक तकनीकों से भरी भ्रष्ट साइबर की दुनिया में हम कितने सुरक्षित हैं?
जहां पहले टेक्नोलॉजी की मदद से लोगों को बेवकूफ बनाया जाता था, लूटा जाता था, ओटीपी स्कैम और भी बहुत कुछ किया जाते थे, वहीं अब किसी आपत्तिजनक तस्वीरों में किसी दूसरे का चेहरा लगाकर उसे धमकाया जाता है. ऐसा ही कुछ रश्मिका मंदाना के साथ भी हुआ है, जिनके चेहरे की तस्वीर को अश्लील कपड़ों पर लगाकर उसे वायरल किया जा रहा है. ऐसे में सवाल उठता है कि आखिर ऐसा किया कैसे गया, क्या हमारी तस्वीरों के साथ भी ये हो सकता है? चलिए जवाब जानते हैं...
तो दरअसल ये तकनीक डीपफेक कहलाती है, ये हमारी सदी का एक नए तरह का फोटोशॉपिंग टूल है, जिससे AI की मदद से किसी अन्य व्यक्ति के चेहरे को किसी दूसरे का चेहरे से बदल देता है. न सिर्फ इतना, बल्कि इसे नकली घटनाओं की छवियां तैयार करने में भी महारत हासिल है.
Butis, दरअसल एक ऐसा प्लेटफार्म है, जिससे इस तरह की तस्वीरें तैयार की जा सकती है. मसलन ये नकारात्मक रूप से प्रभावित प्लेटफार्मों में से एक है जो कृत्रिम बुद्धिमत्ता के क्षेत्र में लगातार विकसित हो रहा है. इसे साइबर अपराधियों का एक समूह संचालित करता है, जो आवाज़ बदलने और किसी और की नकल करने में सक्षम हैं.
ये इन्हीं साइबर अपराधियों की हरकत थी कि, उन्होंने एक ब्रिटिश-भारतीय लड़की ज़ारा पटेल के शरीर पर दक्षिण भारतीय अभिनेत्री रश्मिका मंदाना के चेहरे को लगाकर इस तरह की वीडियो बनाई, जिसने पूरे इंटरनेट को डरा कर रख दिया. ये वीडियो इस कदर ओरिजनल है, जिसे देखकर असली-नकली का फर्क ही मालूम नहीं होता.
ओरिजनल फोटो-वीडियो के साथ क्या करता है डीपफेक?
ये तकनीक काफी बड़ी है, इसके जानकार बताते हैं कि ये विभिन्न प्रकार के वीडियो, जिसमें ज्यादातर अश्लील होते हैं उनमें नकली आवाजें और चेहरों में हैरतअंगेज तौर पर तबदीली करता है.
Source : News Nation Bureau