शेयर इंवेस्टर्स सावधान! BSE चीफ का डीपफेक वीडियो वायरल, आपको…- भारत संपर्क

0
शेयर इंवेस्टर्स सावधान! BSE चीफ का डीपफेक वीडियो वायरल, आपको…- भारत संपर्क
शेयर इंवेस्टर्स सावधान! BSE चीफ का डीपफेक वीडियो वायरल, आपको ऐसे लग सकता है चूना

बीएसई चीफ का डीपफेक वीडियो वायरल

टेक्नोलॉजी का खतरा अब स्टॉक मार्केट के इंवेस्टर्स तक भी पहुंच रहा है. देश के प्रमुख शेयर बाजार बॉम्बे स्टॉक एक्सचेंज (BSE) के एमडी और सीईओ सुंदररमण राममूर्ति का एक वीडियो वायरल हो रहा है. बताया जा रहा है ये वीडियो असलियत में डीपफेक टेक्नोलॉजी से तैयार किया गया है. इसमें सुंदररमण राममूर्ति का जो चेहरा दिखाया जा रहा है, वो एक कंप्यूटर जेनरेट इमेज है. अगर आपके पास भी ऐसा वीडियो आया है, तो ये सावधान होने का वक्त है, वरना आपको लंबा नुकसान उठाना पड़ सकता है.

इस डीपफेक वीडियो में बीएसई चीफ निवेशकों को कुछ विशेष शेयरों में निवेश की सलाह देते नजर आ रहे हैं. इससे पहले नेशनल स्टॉक एक्सचेंज के सीईओ का भी ऐसा ही एक वीडियो वायरल हुआ था.

बीएसई ने कहा – ‘इंवेस्टर्स हो जाएं सावधान’

बीएसई ने गुरुवार को इस बारे में एक बयान जारी किया है. बयान में कहा गया है कि बीएसई को पता चला है कि मार्केट में कुछ ऐसे वीडियो और ऑडियो शेयर हो रहे हैं, जिनमें उसके चीफ को कुछ शेयरों में निवेश को लेकर रिकमेंडेशन देते हुए देखे जा रहा है. बीएसई ने इन वीडियो एवं ऑडियो को नकली, और अनऑथराइज्ड बताया है.

ये भी पढ़ें

साथ ही इंवेस्टर्स को सावधान रहने के लिए कहा है. बीएसई का कहना है कि इन वीडियो और ऑडियो को आधुनिक एआई और डीपफेक जैसी टेक्नोलॉजी का इस्तेमाल करके बनाया गया है. बीएसई के एमडी और सीईओ ना तो इस तरह किसी शेयर को रिकमेंड करते हैं. ना ही उन्होंने फेसबुक या अन्य सोशल मीडिया पर इस तरह के किसी वीडियो से कोई जानकारी शेयर की है.

एनएसई ने भी दी थी चेतावनी

इससे पहले नेशनल स्टॉक एक्सचेंज (NSE) ने भी 10 अप्रैल को अपने एमडी एवं सीईओ आशीष कुमार चौहान की इसी तरह की वायरल वीडियो को लेकर चेतावनी जारी की थी. एनएसई की तरफ से शेयर इंवेस्टर्स को आगाह किया गया था कि वह इन सलाहों पर विचार ना करें.

बीएसई ने भी निवेशकों से ऐसे वीडियो एवं ऑडियो पर भरोसा न करने के लिए कहा है. साथ ही कहा है कि बीएसई इन वीडियो-ऑडियो को वायरल करने वाले अज्ञात तत्वों को रोकने के लिए हर संभव कदम उठाएगा.

डीपफेक टेक्नोलॉजी का नुकसान

डीपफेक टेक्नोलॉजी में किसी व्यक्ति की शक्ल, हावभाव और आवाज को कंप्यूटर एआई और मशीन लर्निंग से हूबहू कॉपी कर लिया जाता है. इसके बाद इससे उस व्यक्ति की शक्ल, आवाज इत्यादि का इस्तेमाल करके उससे भ्रामक जानकारियों को फैलाया जा सकता है. इससे पहले भी कई हस्तियां इस टेक्नोलॉजी का शिकार बन चुकी हैं.

Leave a Reply

Your email address will not be published. Required fields are marked *

पाकिस्तान-बांग्लादेश को एक ही दिन में चित करने का मौका, सुपर संडे में दिखेग… – भारत संपर्क| जल संरक्षण के लिए जल-जगार अनुकरणीय पहल: मुख्यमंत्री विष्णु देव साय – भारत संपर्क न्यूज़ …| 16 साल से ससुराल में कैद, शरीर पर बची सिर्फ खाल… महिला प्रताड़ना की रूह क… – भारत संपर्क| रायगढ़ के युवा उद्योगपतियों और सामाजिक महिलाओं को प्रदेश के कई नगरों में मिला… – भारत संपर्क न्यूज़ …| जिम बिना जाए पेट हो जाएगा अंदर, घर पर करें ये पांच एक्सरसाइज