Connect with us

क्राइम

Deep Fake Scam : केरल के एक व्यक्ति के साथ AI डीपफेक तकनीक की मदद से की गई ठगी, लगा 40 हजार का चूना

Published

on

How Kerala man was cheated through deep fake technology

AI यानी आर्टिफिशियल इंटेलिजेंस के बारे में आपक ने काफी सुना होगा। इन दिनों यह चर्चा का विषय बना हुआ है। जैसे-जैसे दुनिया में टेक्नोलॉजी बढ़ रही है वैसे-वैसे इसका गलत इस्तेमाल भी शुरू हो गया है। अपराधी इसका उपयोग लोगों से साथ स्कैम (Scam) करने में कर रहे हैं। ऐसा ही डीपफेक तकनीक की मदद से किए गए स्कैम का मामला केरल (Kerala) से सामने आया है। जहां एक व्यक्ति को पूरे 40 हजार रुपये का चूना लगा है। आइए जानते हैं क्या इसका पूरा मामला।

ऐसे की जाती है ठगी

यह मामला केरल के कोझिकोड (Kozhikode) का बताया जा रहा है, जहां राधाकृष्णन नाम के एक शख्स के साथ आर्टिफिशियल इंटेलिजेंस के जरिए 40 हजार रुपये का स्कैम किया गया। पुलिस के मुताबिक, यह एक डीपफेक स्कैम (Deepfake scam) है, जिसमें एक ऐसा व्यक्ति का हाथ है जिसे AI की पुरी जानकारी है।

केरल पुलिस के मुताबिक, राधाकृष्णन को एक अनजान नंबर से व्हाट्सएप (Whatsapp) पर एक वीडियो कॉल (Video Call) आया था। जब उन्होंने कॉल को रिसीव किया तो उन्हें लगा कि दूसरी तरफ से बात करने वाला व्यक्ति आंध्र प्रदेश में रहने वाले उनके पुराने सहयोगियों में से कोई है। वहीं, दूसरी तरफ मौजूद व्यक्ति ने राधाकृष्णन से अस्पताल में एक रिश्तेदार की मदद के बहाने गूगल पे (Google Pay) के जरिए 40 हजार रुपये मांगे। परेशानी को देखते हुए राधाकृष्णन ने तुरंत पैसे भेज दिए लेकिन जब उसने फिर से 30 हजार रुपये की मांग की तो राधाकृष्णन को उस पर शक हुआ और उन्होंने साइबर पुलिस (Cyber Police) में शिकायत दर्ज करा दी।

ALSO READ: लड़की ने किया Suicide आपके कारण! लाखों दो या जेल जाओ

डीपफेक तकनीक के जरिए किया गया स्कैम

एआई के ज्यादा पावरफुल होने की वजह से स्कैमर्स इसका जमकर फायदा उठा रहे हैं। इस स्कैम में डीपफेक तकनीक (Deepfake Technology) का इस्तेमाल किया गया है। इस तकनीक की मदद से असली और नकली के बीच फर्क कर पाना काफी चुनौतीपूर्ण हो जाता है। बता दें कि इस तकनीक का इस्तेमाल चेहरे और आवाज रिकॉर्डिंग जैसे डाटा को एनालिसिस (analysis) करने के लिए किया जाता है, जिससे साइबर अपराधी आसानी से रियलिस्टिक डीपफेक वीडियो बना लेते है। इसमें किसी शख्स की आवाज की बारीकी से नकल की जा सकती है। अगर साफ शब्दों में कहा जाए तो डीपफेक तकनीक के जरिए आप किसी भी इन्सान की शक्ल और उसकी आवाज को कॉपी कर सकते हैं।

ALSO READCyber Crime की रिपोर्टिंग के लिए गृह मंत्रालय ने जारी किया नया हेल्पलाइन नंबर, अब 155260 की जगह 1930 नंबर पर करें कॉल

एआई डीपफेक तकनीक से 5 करोड़ की ठगी

आपको बता दें कि यह कोई डीपफेक तकनीक के जरिए किया गया पहला स्कैम नहीं है। इससे पहले केरल में भी ऐसा ही मामला सामने आया। जहां एक शख्स को व्हाट्सएप पर एक वीडियो कॉल आया, जिसमें दूसरी तरफ नजर आ रहा शख्स उसका पुराना कोई परिचित था और फिर अपराधी ने उसे अपनी परेशानी के बारे में बताते हुए रुपए मांगे। हालांकि बाद में जब यह मामला सबके सामने आया तब यह बात सबके सामने आई कि वो कॉल साइबर फ्रॉड (Cyber Fraud) ने की थी और इसके लिए उन्होंने एआई का इस्तेमाल किया था।

 

Follow The420.in on

 Telegram | Facebook | Twitter | LinkedIn | Instagram | YouTube

Continue Reading