ChatGPT परोस रहा खतरनाक लिंक्स, एक क्लिक में आप गंवा सकते हैं अपना सबकुछ – भारत संपर्क


ChatgptImage Credit source: Unsplash/Freepik
जिस तरह से ठगी करने वाले कभी आपको ईमेल तो कभी मैसेज के जरिए अलग-अलग तरीकों से खतरनाक लिंक्स परोसते हैं, ठीक उसी तरह से अब ओनएआई का एआई टूल ChatGPT भी यही काम कर रहा है. चौंक गए, लेकिन ये सच है. हाल ही में नेटक्राफ्ट की एक नई रिपोर्ट में दावा किया गया है कि इन AI टूल्स पर रखा गया भरोसा गलत साबित हो सकता है, क्योंकि यूजर्स फिशिंग अटैक का शिकार हो सकते हैं.
34 प्रतिशत मामलों में गलत निकला ChatGPT
AI से पूछे गए सवाल के जवाब में हमेशा टेक्स्ट ही नहीं बल्कि कई बार तो यूआरएल भी मिलते हैं और इस रिपोर्ट में बताया गया है कि कई बार तो चैटजीपीटी गलत यूआरएल परोस देता है. गलत यूआरएल की वजह से बड़े पैमाने पर लोग फिंशिंग अटैक का शिकार हो सकते हैं.
रिपोर्ट के अनुसार, OpenAI के GPT-4.1 मॉडल से फाइनेंस, रिटेल, टेक और यूटिलिटी जैसे इंडस्ट्रीज के 50 अलग-अलग ब्रैंड्स में लॉग-इन करने के लिए वेबसाइट लिंक मांगे गए थे, जबकि चैटबॉट ने 66 फीसदी मामले में तो सही यूआरएस दिए लेकिन 34 फीसदी मामलों में गलत लिंक्स परोस दिए.
रिपोर्ट का दावा है कि इन गलत लिंक्स में से कुछ खतरनाक भी हो सकते हैं और अगर किसी भी यूजर ने खतरनाक लिंक पर क्लिक किया तो आप जानते ही हैं कि आगे क्या हो सकता है? हो सकता है कि आप अपना सबकुछ गंवा बैठे. इस रिपोर्ट के सामने आने के बाद एक बात तो साफ है कि एआई टूल द्वारा परोसे गए रिजल्ट में दिख रहे यूआरएल खोलने की भूल न करें, हो सकता है कि जिस लिंक पर आप क्लिक कर रहे हैं वो फिशिंग लिंक हो.
Perplexity AI भी भरोसे लायक नहीं
रिपोर्ट में एक वास्तविक उदाहरण का भी उल्लेख किया गया है, जहां Wells Fargo के आधिकारिक यूआरएल के बारे में पूछे जाने पर Perplexity AI ने एक फिशिंग साइट का सुझाव दिया.