आम लोगों के बस की बात नहीं Deepfake को समझना! बस इतने लोग जान पाते हैं हकीकत |… – भारत संपर्क

0
आम लोगों के बस की बात नहीं Deepfake को समझना! बस इतने लोग जान पाते हैं हकीकत |… – भारत संपर्क
आम लोगों के बस की बात नहीं Deepfake को समझना! बस इतने लोग जान पाते हैं हकीकत

Deepfake: डीपफेक कंटेंट से सावधान रहना चाहिए.Image Credit source: AI/Mohd Jishan

McAfee के ऑनलाइन प्रोटेक्शन और साइबर सिक्योरिटी एक्सपर्ट्स ने डीपफेक को लेकर एक सर्वे किया. भारतीयों के बीच किए सर्वे में कई चौंकाने वाले नतीजे सामने आए हैं. जनवरी और फरवरी 2024 में McAfee ने फ्यूचर में आर्टिफिशियल इंटेलिजेंस (AI) और टेक्नोलॉजी के प्रभाव की जांच के लिए कई देशों में एक रिसर्च स्टडी की. एमएसआई-एसीआई द्वारा आयोजित स्टडी में अमेरिका, ब्रिटेन, फ्रांस, जर्मनी, ऑस्ट्रेलिया, भारत और जापान सहित विभिन्न देशों के 7,000 लोग शामिल थे.

चार में से एक भारतीय (22 फीसदी) ने पॉलिटिकल डीपफेक का सामना करने की बात स्वीकार की, जिसे पहले देखने पर वे असली मानते थे. बढ़ता डीपफेक एक्सपोजर चिंता पैदा करता है, खासतौर पर भारत में चल रहे चुनावों और स्पोर्ट्स इवेंट्स के बीच जहां एआई टेक्नोलॉजी के कारण असली और नकली वीडियो और वॉयस के बीच अंतर करना बहुत चुनौतीपूर्ण है.

सर्वे से कुछ चौंकाने वाले नतीजे

31 फीसदी लोगों ने आम चुनावों पर डीपफेक के प्रभाव को एआई-बेस्ड टेक्नोलॉजी से संबंधित सबसे चिंताजनक मुद्दों में से एक के तौर पर शामिल किया है. गलत सूचना और दुष्प्रचार जरूरी चिंताओं के रूप में उभरे, जिसमें सचिन तेंदुलकर, विराट कोहली, आमिर खान और रणवीर सिंह जैसे सेलिब्रिटीज से जुड़े डीपफेक हमारे सामने आए हैं.

ये भी पढ़ें

लोगों ने डीपफेक के अलग-अलग इस्तेमाल के बारे में चिंता जाहिर की, जिनमें साइबरबुलिंग (55 फीसदी), नकली अश्लील कंटेंट बनाना (52 फीसदी), स्कैम को बढ़ावा देना (49 फीसदी), सेलिब्रिटीज की नकल बनाना (44 फीसदी), चुनावों को प्रभावित करना (31 फीसदी), और ऐतिहासिक तथ्यों से छेड़छाड़ करना (27 फीसदी), मीडिया में जनता के विश्वास को कम करना (37 फीसदी) शामिल है.

80 फीसदी लोगों ने कहा कि वे एक साल पहले की तुलना में डीपफेक के बारे में ज्यादा चिंतित हैं, जो इस टेक्नोलॉजी से जुड़े रिस्क के बारे में बढ़ती जागरूकता को दर्शाता है. 64 फीसदी लोगों का मानना ​​है कि एआई ने ऑनलाइन स्कैम को पहचानना कठिन बना दिया है.

डीपफेक से स्कैम

घोटालों और हेरफेर के लिए AI-जनरेटेड ऑडियो का इस्तेमाल करने वाले साइबर अपराधियों के बढ़ते खतरे से निपटने के लिए McAfee ने प्रोजेक्ट मॉकिंगबर्ड, एक AI-बेस्ड डीपफेक ऑडियो डिटेक्शन टेक्नोलॉजी विकसित की है.

McAfee Labs द्वारा बनाई गई यह नई टेक्नोलॉजी यूजर्स को वीडियो में AI-जनरेटेड ऑडियो की पहचान करने में मदद करती है. इससे डिजिटल दुनिया और कंटेंट के संभावित हेरफेर की बेहतर समझ मिलती है.

भावनाओं को भड़काने वाले कंटेंट सावधान रहें, खासकर अगर यह गुस्से या उदासी जैसी भावनाओं को उकसाती हो. डीपफेक का उद्देश्य आपकी सोच और कामों में हेरफेर करना है.

केवल 30 फीसदी लोग एआई से बने असली और नकली कंटेंट के बीच अंतर करने की अपनी क्षमता में आत्मविश्वास महसूस करते हैं. यह जागरूकता और तैयारियों में बड़ी कमी को दर्शाता है.

बीते 12 महीनों में 38 फीसदी लोगों को डीपफेक स्कैम का सामना करना पड़ा, जबकि 18 फीसदी लोग ऐसे स्कैम का शिकार बने. इन स्कैम में अक्सर सेलिब्रिटीज या किसी दूसरे इंसान के डीपफेक से धोखा देकर पर्सनल जानकारी या धन हड़पना शामिल होता है.

डीपफेक से ऐसे रहें सुरक्षित

इस डिजिटल दौर में अपनी पर्सनल जानकारी शेयर करने से पहले उसे वेरिफाई करना जरूरी है. खासतौर पर डीपफेक और एआई-जेनरेटेड कंटेंट के बढ़ने के साथ ऐसा करना और जरूरी हो गया है. इंटरनेट पर फोटो-वीडियो, रोबोटिक आवाजों, या इमोशनल कंटेंट देखते समय सावधान रहें, क्योंकि ये अक्सर नकली होने का संकेत दे सकते हैं.

कोई भी मैसेज या जानकारी शेयर करने से पहले भरोसेमंद फैक्ट-चेक टूल्स और न्यूज सोर्स का इस्तेमाल करके सुनिश्चित करें कि यह सच और सटीक है. हेरफेर की गई फोटो से सावधान रहें, क्योंकि उनमें अक्सर ज्यादा उंगलियां या धुंधले चेहरे जैसी खामियां होती हैं, जिन्हें आप पहचान सकते हैं. डीपफेक वीडियो में आवाजों पर ध्यान दें, क्योंकि AI-जेनरेटेड आवाजों में अजीब रुकावट या अननेचुरल फील हो सकता है.

Leave a Reply

Your email address will not be published. Required fields are marked *

भगवान परशुराम जन्मोत्सव व अक्षय तृतिया पर जिला पंचायत सभापति…- भारत संपर्क| प्रेग्नेंसी पर लिखी किताब में बाइबल शब्द… हाईकोर्ट का करीना कपूर को नोटिस… – भारत संपर्क| UN में फिलिस्तीन के लिए वोटिंग, सऊदी ने किसको किया सपोर्ट | saudi arab UN General… – भारत संपर्क| Raigarh News: नटवर, मुनिस्पल सहित 12 आत्मानंद स्कूलों को पीएमश्री…- भारत संपर्क| VIDEO: जिम्बाब्वे ने पाकिस्तान को भी किया फेल, फील्डिंग देख नहीं रुकेगी हंस… – भारत संपर्क