रश्मिका मंदाना डीपफेक वीडियो:ऑनलाइन वायरल हो रहे डीपफेक वीडियो से रश्मिका मंदाना आहत है।

रश्मिका मंदाना डीपफेक वीडियो के खिलाफ ने कार्रवाई की मांग की और अपने आवाज उठाई। उन्होंने दावा किया, प्रौद्योगिकी का दुरुपयोग किया जा रहा है।

सोशल मीडिया पर एक्ट्रेस रश्मिका मंदाना का एक डीपफेक वीडियो खूब वायरल हो रहा है। सोशल मीडिया पर अब वायरल हो रहे वीडियो में एक महिला को लिफ्ट में प्रवेश करते देखा जा सकता है, लेकिन उसका चेहरा डिजिटल रूप से बदलकर मंदाना जैसा कर दिया गया है। इस घटना से काफी लोग नाराज हैं और कानूनी कार्रवाई की मांग कर रहे हैं. बॉलीवुड के दिग्गज अभिनेता और फिल्म गुडबाय में सह-कलाकार अमिताभ बच्चन ने डीपफेक प्रवृत्ति के बारे में अपनी चिंता व्यक्त की और कानूनी कार्रवाई की वकालत की।

रश्मिका मंदाना डीपफेक वीडियो के जवाब में, क्या बोले?

रश्मिका मंदाना डीपफेक वीडियो के जवाब में बोले,मुझे अपने उस डीपफेक वीडियो के बारे में बात करनी है जो ऑनलाइन वायरल हो रहा है, भले ही मैं इसे साझा करते हुए वास्तव में आहत महसूस कर रहा हूं। ऐसा कुछ वास्तव में मुझे भयभीत करता है, जैसा कि हर दूसरे व्यक्ति को होता है जो आधुनिक दुनिया में प्रौद्योगिकी के दुरुपयोग के कारण इस तरह के नुकसान के प्रति संवेदनशील है।” व्यापक रूप से साझा किए गए वीडियो में, पूरे काले कपड़े पहने एक ब्रिटिश-भारतीय महिला लिफ्ट के अंदर दिखाई दे रही है। आर्टिफिशियल इंटेलिजेंस (AI)से बदला गया रश्मिका का चेहरा।

अभिनेत्री ने आगे कहा, “एक महिला और एक अभिनेता के रूप में, मैं अपने परिवार, दोस्तों और शुभचिंतकों का आभारी हूं जो आज मेरी सुरक्षा तंत्र और सहायता प्रणाली हैं।” हालाँकि, अगर हाई स्कूल या कॉलेज में मेरे साथ ऐसा हुआ होता, तो मुझे नहीं लगता कि मैं इसे संभाल पाता। इससे पहले कि इस तरह की पहचान की चोरी से अधिक लोग प्रभावित हों, यह जरूरी है कि हम एक समुदाय के रूप में इस पर कार्रवाई करें।

डीपफेक वीडियो क्या है?

“डीप लर्निंग” और “फेक” को मिलाकर “डीपफेक” शब्द बनाया गया है। यह एक वीडियो का वर्णन करता है जिसे मूल क्लिप में व्यक्ति को किसी अन्य व्यक्ति, आमतौर पर एक प्रसिद्ध व्यक्ति के साथ प्रामाणिक रूप से बदलने के लिए एल्गोरिदम के साथ बदल दिया गया है। डीपफेक एक प्रकार की कृत्रिम बुद्धिमत्ता का उपयोग करके काल्पनिक घटनाओं की छवियां बनाते हैं जिन्हें डीप लर्निंग के रूप में जाना जाता है। विभिन्न एआई टूल के आने के बाद से डीपफेक वीडियो का प्रचलन बढ़ गया है। कुछ एआई उपकरण मुफ़्त में उपलब्ध हैं और केवल नकली छवियों, वीडियो और ऑडियो की समस्या को बदतर बनाने का काम करते हैं।

डीपफेक वीडियो की पहचान कैसे की जा सकती है?

1. आंखों की अप्राकृतिक गतिविधियां:

आंखों की किसी भी असामान्य गतिविधि पर नजर रखें, जैसे कि अनियमित या न के बराबर पलकें झपकाना।

2. रंग और प्रकाश का बेमेल:

पृष्ठभूमि और चेहरे के बीच रंग और प्रकाश के अंतर पर ध्यान दें।

3. ऑडियो गुणवत्ता:

इसकी तुलना और तुलना करके मूल्यांकन करें कि होंठ की हरकतों से ऑडियो कितनी अच्छी तरह मेल खाता है।

4. दृश्य विसंगतियाँ:

दृश्य अनियमितताओं की जाँच करें जैसे कि अजीब शारीरिक मुद्रा या चाल, चेहरे के भाव, असामान्य चेहरे की विशेषताओं का स्थान, या असामान्य शरीर का आकार।

5. रिवर्स इमेज सर्च:

इस तकनीक का उपयोग यह निर्धारित करने के लिए करें कि व्यक्ति या वीडियो वास्तविक है या नहीं।

6. वीडियो मेटाडेटा:

जांच करें और निर्धारित करें कि किसी वीडियो का मेटाडेटा संपादित किया गया है या बदला गया है।

7. डीपफेक डिटेक्शन टूल्स:

ऐसे टूल्स का उपयोग करें जो संदिग्ध वीडियो की पहचान कर सकें, जैसे ब्राउज़र एक्सटेंशन या ऑनलाइन प्लेटफ़ॉर्म।

रश्मिका मंदाना डीपफेक

नकली छवियों और वीडियो की समस्या का समाधान

अत्यधिक नकली छवियों और वीडियो की समस्या का समाधान करने के लिए कई प्रौद्योगिकियाँ बनाई जा रही हैं, जिनमें शामिल हैं:

1. एआई-आधारित जांच:

वीडियो से छेड़छाड़ की पहचान करने के लिए बहुत सारे उपकरण एआई का उपयोग करते हैं। उदाहरण के लिए, माइक्रोसॉफ्ट ने एक उपकरण बनाया है जो छवियों और वीडियो का मूल्यांकन करता है और एक आत्मविश्वास स्कोर प्रदान करता है जो इस संभावना को दर्शाता है कि सामग्री कृत्रिम रूप से तैयार की गई थी। इस टूल का परीक्षण करने के लिए डीपफेक डिटेक्शन चैलेंज डेटासेट का उपयोग किया गया था, जिसे फेस फोरेंसिक++ से सार्वजनिक रूप से उपलब्ध डेटासेट का उपयोग करके विकसित किया गया था।

2. ब्राउज़र प्लगइन्स:

इंटरनेट पर डीपफेक सामग्री की पहचान करने में सहायता के लिए, एआई फाउंडेशन ने रियलिटी डिफेंडर नामक एक ब्राउज़र प्लगइन विकसित किया। SurfSafe, एक अन्य प्लगइन, तुलनीय जांच करता है।

3. स्टार्टअप:

कई स्टार्टअप झूठी सूचनाओं से निपटने के लिए अत्याधुनिक रणनीतियाँ विकसित कर रहे हैं। उदाहरण के लिए, OARO मीडिया, अनुपालन और डिजिटल पहचान प्रमाणीकरण और सत्यापन के लिए संसाधन प्रदान करता है। सेंटिनल साइबरयुद्ध को संबोधित कर रहा है।

4. अपरिवर्तनीय रिकॉर्ड:

व्यवसाय, सरकारी संगठन और व्यक्तिगत उपयोगकर्ता OARO मीडिया द्वारा उत्पन्न अपरिवर्तनीय डेटा ट्रेल का उपयोग करके किसी भी छवि या वीडियो को प्रमाणित कर सकते हैं।

रश्मिका मंदाना डीपफेक विवाद जैसी सामग्री के प्रसार को रोकने के लिए कानूनी और नियामक कार्रवाइयों की सख्त जरूरत है। हालाँकि ऊपर सूचीबद्ध कई प्रौद्योगिकियाँ तेजी से विकसित हो रही हैं, उनमें से कई या तो अभी तक व्यापक रूप से और आसानी से सुलभ नहीं हैं या पूरी तरह से सटीक नहीं हैं। इस प्रकार के वीडियो ढूंढना और वितरित करना अभी भी उपयोगकर्ता की ज़िम्मेदारी है।

ज़ारा पटेल कौन हैं?

ज़ारा पटेल, ब्रिटिश-भारतीय हैं,जिसके 4.5 लाख से अधिक इंस्टाग्राम फॉलोअर्स हैं। साहसी सामग्री पोस्ट करने के लिए मंच पर उनकी प्रतिष्ठा है। उनके इंस्टाग्राम बायो के आधार पर, वह एक पूर्णकालिक डेटा इंजीनियर और मानसिक स्वास्थ्य वकील भी हैं।इसके अलावा वह अपने फॉलोअर्स के लिए सक्रिय रूप से वयस्क सामग्री भी बनाती है। अपने इंस्टाग्राम अकाउंट पर, उन्होंने एक गुप्त लिंक साझा किया है जो उपयोगकर्ताओं को उनके साथ चैट करने और उनकी स्पष्ट सामग्री देखने में सक्षम बनाता है।

जरा पटेल की प्रतिक्रिया

डीपफेक वीडियो में दिखाई देने वाली महिला ने अभिनेता रश्मिका मंदाना के वायरल होने के एक दिन बाद सोशल मीडिया पर परिवर्तित क्लिप पर प्रतिक्रिया पोस्ट की। ज़ारा पटेल ने सोशल मीडिया उपयोगकर्ताओं से ऑनलाइन मिलने वाली जानकारी की दोबारा जांच करने के लिए कहा और एक इंस्टाग्राम बयान में घटना के बारे में अपनी बेहद परेशान भावनाओं को व्यक्त किया।

“मुझे इस बात की चिंता है कि लड़कियों और महिलाओं के लिए आगे क्या होगा, जिन्हें अब सोशल मीडिया पर कुछ भी पोस्ट करने के निरंतर डर के साथ जीना पड़ता है। कृपया पीछे खड़े रहें और ऑनलाइन मिलने वाली जानकारी को सत्यापित करें। उन्होंने आगे कहा, “क्या वह सब कुछ जो आप ऑनलाइन पाते हैं सचमुच का है।

जो लोग नहीं जानते हैं, उनके लिए बता दें कि हाल ही में वायरल हुए एक वीडियो में रश्मिका मंदाना को कथित तौर पर एक लिफ्ट में प्रवेश करते देखा गया था। लेकिन डीपफेक वीडियो में रश्मिका मंदाना नहीं, ज़ारा पटेल महिला थीं।

Leave a Comment