तकनीक कितनी तेजी से आगे बढ़ रही है, इसका अंदाज़ा भी नहीं लगाया जा सकता है. आज के समय में मशीन द्वारा कोई भी काम चुटकियों में करवाया जा सकता है. हालांकि हर चीज़ का एक सही और गलत पहलू होता है और वही हो रहा है आर्टिफिशियल इंटेलिजेंस के साथ. कोई भी टेक्नोलॉजी इसलिए विकसित की जाती है ताकि उसके इस्तेमाल से हमें आगे बढ़ने में मदद मिले या चीज़ें आसान बन जाएं. लेकिन आज का दौर ऐसा है कि तकनीक के सही इस्तेमाल से पहले गलत इस्तेमाल होना शुरू हो जाता है. आर्टिफिशियल इंटेलिजेंस द्वारा डीपफेक को अंजाम दिया जा रहा है.
दरअसल सोशल मीडिया पर एक वीडियो बहुत तेजी से वायरल हो रहा है जिसमें कथित तौर पर अभिनेत्री रश्मिका मंदाना को एक लिफ्ट में एंटर करते हुए दिखाया गया है, लेकिन इस वीडियो को डीपफेक के रूप में पहचाना गया है. दरअसल इसके ओरिजिनल वीडियो में ब्रिटिश-भारतीय महिला ज़ारा पटेल हैं. बता दें कि कुछ दिन पहले अपने वीडियो को ज़ारा पटेल ने खुद इंस्टाग्राम पर अपलोड किया था.
वीडियो को करीब से देखने पर पता चलता है कि जब वह बंद हो रहे लिफ्ट के दरवाजे से निकलने की कोशिश करती है तो पटेल के चेहरे से लेकर रश्मिका तक एक स्मूद ट्रांसिशन दिखता है. गौर किया जाए तो पहले सेकंड अभिनेत्री का सिर ओरिजिनल वीडियो वाली ज़ारा के शरीर पर नहीं लगाया जाता है.
लेकिन ये इतना आराम से हो जाता है कि एक आम यूज़र आसानी से इस ट्रांसिशन को नहीं समझ पाएगा. इसलिए डीपफेक को भी पहले बार करीब एक महीने तक ध्यान नहीं दिया गया. इसे 8 अक्टूबर को ऑनलाइन पोस्ट किया गया था.
For your convenience
THE ORIGINAL FT RASHMIKA MANDANNA deepfake edit.#deepfake pic.twitter.com/wibrW6umLP— Liz/Barsha (@debunk_misinfos) November 5, 2023
अब सवाल ये है कि डीपफेक क्या होता है और कैसे इससे बचा जा सकता है?
आज के समय में आर्टिफिशियल इंटेलिजेंस इस कदर हाईटेक हो चुकी है कि कोई भी आपकी फोटो से चंद मिनटों में डीप फेक (झूठी तस्वीर) बना सकता है. डीप फेक टर्म का मतलब है ऐसी तस्वीरें या वीडियो जिसमें चेहरा और शरीर तो आपका दिखेगा, लेकिन असल में वह आप नहीं होते हैं. पोर्न वीडियो में भी इसका काफी इस्तेमाल किया जाता है, जहां किसी और की बॉडी पर किसी और के चेहरे को लगा दिया जाता है. डराने वाली बात ये है कि किसी और के चेहरे पूरी वीडियो में लगा दिया जाता है, और इससे पहचानना काफी मुश्किल होता है.
उदाहरण के तौर पर आपकी एक फोटो है तो आपके चेहरे पर किसी सेलिब्रिटी के शरीर के साथ स्वैप किया जा सकता है. फोटो को देखने वाले को लगेगा कि फोटो में आप ही हैं, मगर असल में बॉडी किसी और की होती है. आर्टिफिशियल इंटेलिजेंस से इसे इतने आसानी से बनाया जाता है कि कोई भी नहीं समझ पाता है कि ये एडिटेड है.
कैसे रखें खुद को सेफ?
किसी भी इंसान का डीप फेक बनाने के लिए उसकी 5 या उससे अधिक तस्वीरों की जरूरत होती है. फिर आर्टिफिशियल इंटेलिजेंस इन तस्वीरों की स्टडी करके इन्हें सॉफ्टवेयर की शक्ल में स्टोर कर लेता है. ऐसे में आप एक काम ये कर सकते हैं कि सोशल मीडिया से अपनी फोटो हटा लें, या फिर उन्हें पब्लिक से हटाकर प्राइवेट कर दें. इस तरह से आपके फोटो का गलत इस्तेमाल होने से बचाया जा सकता है.
.
Tags: Artificial Intelligence, Rashmika mandanna pics, Tech news, Tech news hindi, Technology
FIRST PUBLISHED : November 6, 2023, 12:30 IST