Deep Fake Scam : केरल के एक व्यक्ति के साथ AI डीपफेक तकनीक की मदद से की गई ठगी, लगा 40 हजार का चूना

Deep Fake Scam : केरल के एक व्यक्ति के साथ AI डीपफेक तकनीक की मदद से की गई ठगी, लगा 40 हजार का चूना

Swati Mishra
4 Min Read

AI यानी आर्टिफिशियल इंटेलिजेंस के बारे में आपक ने काफी सुना होगा। इन दिनों यह चर्चा का विषय बना हुआ है। जैसे-जैसे दुनिया में टेक्नोलॉजी बढ़ रही है वैसे-वैसे इसका गलत इस्तेमाल भी शुरू हो गया है। अपराधी इसका उपयोग लोगों से साथ स्कैम (Scam) करने में कर रहे हैं। ऐसा ही डीपफेक तकनीक की मदद से किए गए स्कैम का मामला केरल (Kerala) से सामने आया है। जहां एक व्यक्ति को पूरे 40 हजार रुपये का चूना लगा है। आइए जानते हैं क्या इसका पूरा मामला।

ऐसे की जाती है ठगी

यह मामला केरल के कोझिकोड (Kozhikode) का बताया जा रहा है, जहां राधाकृष्णन नाम के एक शख्स के साथ आर्टिफिशियल इंटेलिजेंस के जरिए 40 हजार रुपये का स्कैम किया गया। पुलिस के मुताबिक, यह एक डीपफेक स्कैम (Deepfake scam) है, जिसमें एक ऐसा व्यक्ति का हाथ है जिसे AI की पुरी जानकारी है।

केरल पुलिस के मुताबिक, राधाकृष्णन को एक अनजान नंबर से व्हाट्सएप (Whatsapp) पर एक वीडियो कॉल (Video Call) आया था। जब उन्होंने कॉल को रिसीव किया तो उन्हें लगा कि दूसरी तरफ से बात करने वाला व्यक्ति आंध्र प्रदेश में रहने वाले उनके पुराने सहयोगियों में से कोई है। वहीं, दूसरी तरफ मौजूद व्यक्ति ने राधाकृष्णन से अस्पताल में एक रिश्तेदार की मदद के बहाने गूगल पे (Google Pay) के जरिए 40 हजार रुपये मांगे। परेशानी को देखते हुए राधाकृष्णन ने तुरंत पैसे भेज दिए लेकिन जब उसने फिर से 30 हजार रुपये की मांग की तो राधाकृष्णन को उस पर शक हुआ और उन्होंने साइबर पुलिस (Cyber Police) में शिकायत दर्ज करा दी।

ALSO READ: लड़की ने किया Suicide आपके कारण! लाखों दो या जेल जाओ

डीपफेक तकनीक के जरिए किया गया स्कैम

एआई के ज्यादा पावरफुल होने की वजह से स्कैमर्स इसका जमकर फायदा उठा रहे हैं। इस स्कैम में डीपफेक तकनीक (Deepfake Technology) का इस्तेमाल किया गया है। इस तकनीक की मदद से असली और नकली के बीच फर्क कर पाना काफी चुनौतीपूर्ण हो जाता है। बता दें कि इस तकनीक का इस्तेमाल चेहरे और आवाज रिकॉर्डिंग जैसे डाटा को एनालिसिस (analysis) करने के लिए किया जाता है, जिससे साइबर अपराधी आसानी से रियलिस्टिक डीपफेक वीडियो बना लेते है। इसमें किसी शख्स की आवाज की बारीकी से नकल की जा सकती है। अगर साफ शब्दों में कहा जाए तो डीपफेक तकनीक के जरिए आप किसी भी इन्सान की शक्ल और उसकी आवाज को कॉपी कर सकते हैं।

ALSO READCyber Crime की रिपोर्टिंग के लिए गृह मंत्रालय ने जारी किया नया हेल्पलाइन नंबर, अब 155260 की जगह 1930 नंबर पर करें कॉल

एआई डीपफेक तकनीक से 5 करोड़ की ठगी

आपको बता दें कि यह कोई डीपफेक तकनीक के जरिए किया गया पहला स्कैम नहीं है। इससे पहले केरल में भी ऐसा ही मामला सामने आया। जहां एक शख्स को व्हाट्सएप पर एक वीडियो कॉल आया, जिसमें दूसरी तरफ नजर आ रहा शख्स उसका पुराना कोई परिचित था और फिर अपराधी ने उसे अपनी परेशानी के बारे में बताते हुए रुपए मांगे। हालांकि बाद में जब यह मामला सबके सामने आया तब यह बात सबके सामने आई कि वो कॉल साइबर फ्रॉड (Cyber Fraud) ने की थी और इसके लिए उन्होंने एआई का इस्तेमाल किया था।

 

Follow The420.in on

 Telegram | Facebook | Twitter | LinkedIn | Instagram | YouTube

Stay Connected