शेयर इंवेस्टर्स सावधान! BSE चीफ का डीपफेक वीडियो वायरल, आपको…- भारत संपर्क
बीएसई चीफ का डीपफेक वीडियो वायरल
टेक्नोलॉजी का खतरा अब स्टॉक मार्केट के इंवेस्टर्स तक भी पहुंच रहा है. देश के प्रमुख शेयर बाजार बॉम्बे स्टॉक एक्सचेंज (BSE) के एमडी और सीईओ सुंदररमण राममूर्ति का एक वीडियो वायरल हो रहा है. बताया जा रहा है ये वीडियो असलियत में डीपफेक टेक्नोलॉजी से तैयार किया गया है. इसमें सुंदररमण राममूर्ति का जो चेहरा दिखाया जा रहा है, वो एक कंप्यूटर जेनरेट इमेज है. अगर आपके पास भी ऐसा वीडियो आया है, तो ये सावधान होने का वक्त है, वरना आपको लंबा नुकसान उठाना पड़ सकता है.
इस डीपफेक वीडियो में बीएसई चीफ निवेशकों को कुछ विशेष शेयरों में निवेश की सलाह देते नजर आ रहे हैं. इससे पहले नेशनल स्टॉक एक्सचेंज के सीईओ का भी ऐसा ही एक वीडियो वायरल हुआ था.
बीएसई ने कहा – ‘इंवेस्टर्स हो जाएं सावधान’
बीएसई ने गुरुवार को इस बारे में एक बयान जारी किया है. बयान में कहा गया है कि बीएसई को पता चला है कि मार्केट में कुछ ऐसे वीडियो और ऑडियो शेयर हो रहे हैं, जिनमें उसके चीफ को कुछ शेयरों में निवेश को लेकर रिकमेंडेशन देते हुए देखे जा रहा है. बीएसई ने इन वीडियो एवं ऑडियो को नकली, और अनऑथराइज्ड बताया है.
ये भी पढ़ें
साथ ही इंवेस्टर्स को सावधान रहने के लिए कहा है. बीएसई का कहना है कि इन वीडियो और ऑडियो को आधुनिक एआई और डीपफेक जैसी टेक्नोलॉजी का इस्तेमाल करके बनाया गया है. बीएसई के एमडी और सीईओ ना तो इस तरह किसी शेयर को रिकमेंड करते हैं. ना ही उन्होंने फेसबुक या अन्य सोशल मीडिया पर इस तरह के किसी वीडियो से कोई जानकारी शेयर की है.
एनएसई ने भी दी थी चेतावनी
इससे पहले नेशनल स्टॉक एक्सचेंज (NSE) ने भी 10 अप्रैल को अपने एमडी एवं सीईओ आशीष कुमार चौहान की इसी तरह की वायरल वीडियो को लेकर चेतावनी जारी की थी. एनएसई की तरफ से शेयर इंवेस्टर्स को आगाह किया गया था कि वह इन सलाहों पर विचार ना करें.
बीएसई ने भी निवेशकों से ऐसे वीडियो एवं ऑडियो पर भरोसा न करने के लिए कहा है. साथ ही कहा है कि बीएसई इन वीडियो-ऑडियो को वायरल करने वाले अज्ञात तत्वों को रोकने के लिए हर संभव कदम उठाएगा.
डीपफेक टेक्नोलॉजी का नुकसान
डीपफेक टेक्नोलॉजी में किसी व्यक्ति की शक्ल, हावभाव और आवाज को कंप्यूटर एआई और मशीन लर्निंग से हूबहू कॉपी कर लिया जाता है. इसके बाद इससे उस व्यक्ति की शक्ल, आवाज इत्यादि का इस्तेमाल करके उससे भ्रामक जानकारियों को फैलाया जा सकता है. इससे पहले भी कई हस्तियां इस टेक्नोलॉजी का शिकार बन चुकी हैं.