کلاهبرداری مصنوعی: مرد لاکناو ۴۵ هزار روپیه توسط صدای شبیه سازی شده با هوش مصنوعی فریب خورد، دومین مورد از این دست در ۲ هفته

در یک حادثه نگران‌کننده، یکی از ساکنان لاکنو قربانی یک تبه‌کار سایبری شد که از هوش مصنوعی برای جعل صدای بستگان قربانی استفاده می‌کرد.

کلاهبردار قربانی، Kartikeya را برای انتقال ۴۵۰۰۰ روپیه تحت پوشش یک تراکنش مالی دستکاری کرد. با این حال، او فریب خورد و اعتبار حساب بانکی خود را به اشتراک گذاشت.

پلیس لاکنو در حال بررسی این پرونده است.

Kartikeya، یکی از ساکنان Vineet Khand، که در حوزه قضایی ایستگاه پلیس Gomtinagar قرار دارد، از یک شماره ناشناس تماسی دریافت کرد، جایی که تماس گیرنده ادعا کرد که عموی مادری او است.

جعل توضیح داد که او در حال انتقال ۹۰۰۰۰ روپیه به فردی شناخته شده بود، اما با مشکلاتی در تراکنش از طریق UPI خود مواجه بود.

کلاهبردار به طرز فریبنده ای به Kartikeya دستور داد که ۴۵۰۰۰ روپیه به حساب خود بفرستد و به عنوان راه حلی برای مشکل ظاهری UPI مطرح شود. Kartikeya با اعتماد به تماس گیرنده، به توصیه ها عمل کرد و مبلغ مشخص شده را انتقال داد.

بلافاصله پس از آن، Kartikeya چندین پیامک دریافت کرد که در آن دو مبلغ ۱۰۰۰۰ روپیه، یکی ۳۰۰۰۰ روپیه و ۴۰۰۰۰ روپیه به حساب وی واریز شده است. Kartikeya بعداً با اعتقاد به اینکه پول با موفقیت به حسابش واریز شده و به او بازپرداخت شده است متوجه شد که وجوه در حساب او وجود ندارد.

خوشبختانه، چندین تراکنش ناموفق بود و تنها ۴۴۵۰۰ روپیه می‌توانست به طور بالقوه از حساب او منتقل شود. Kartikeya که متوجه کلاهبرداری شد، بلافاصله این حادثه را به پلیس گزارش داد. پرونده FIR تشکیل شده و تحقیقات برای دستگیری عامل این جنایت ادامه دارد.

دومین مورد در عرض دو هفته

این حادثه در لاکنو به دنبال مورد مشابهی در دهلی رخ می دهد، جایی که مجرمان سایبری از شبیه سازی صوتی مبتنی بر هوش مصنوعی برای اخاذی از یک مرد مسن به نام لاکشمی چاند چاولا از یامونا ویهار استفاده کردند.

در این مورد، کلاهبرداران با جعل صدای پسر عموی قربانی، ادعای آدم ربایی و وادار کردن قربانی را به انتقال ۵۰۰۰۰ روپیه از طریق Paytm کردند.

مجرمان یک ضبط صدای واقعی از کودک ایجاد کردند و از فناوری شبیه سازی صدای هوش مصنوعی برای فریب قربانی استفاده کردند. هنگامی که چاولا با خانواده تماس گرفت و در مورد آدم ربایی پرسید، به او گفتند که چنین حادثه ای وجود نداشته است. در این لحظه بود که متوجه شد چه اتفاقی افتاده است.

شبیه سازی صوتی هوش مصنوعی در حال افزایش است

در حالی که این یک پدیده نسبتاً جدید در هند است، کلاهبرداران بیش از یک سال است که از صدای مجهز به هوش مصنوعی برای فریب دادن مردم استفاده می کنند. یکی از اولین موارد مربوط به زنی در آریزونا، ایالات متحده بود که پیامی مبنی بر اینکه دخترش یک آدم ربا است دریافت کرد. با این حال، قبل از اینکه پول تغییر کند، زن مورد نظر متوجه شد که این یک کلاهبرداری است.

با توجه به این کلاهبرداری جدید، مواردی وجود دارد که شخص باید برای محافظت از خود در نظر داشته باشد.

قبل از پاسخ دادن به تماس، شماره تلفن را به طور کامل بررسی کنید: بیشتر کلاهبرداران از شماره‌هایی از ویتنام، سودان و مالزی برای برقراری چنین تماس‌هایی استفاده می‌کنند، بنابراین، مگر اینکه مرتباً از این مناطق از مخاطبین قانونی تماس دریافت می‌کنید، از پاسخ دادن به آنها خودداری کنید. علاوه بر این، در صورت امکان از دریافت تماس با شماره های ناشناس خودداری کنید.

تماس های خود را غربال کنید: راه‌های زیادی برای نمایش تماس‌های شماره‌های ناشناس وجود دارد. برخی از تلفن‌ها اکنون با دستیارهای هوش مصنوعی عرضه می‌شوند که تماسی را برای شما دریافت می‌کنند، آنها را نمایش می‌دهند و سپس به شما اجازه می‌دهند انتخاب کنید که آیا می‌خواهید تماس بگیرید، بنابراین اگر این گزینه را دارید، از آن استفاده کنید. در غیر این صورت، همیشه می توانید به شماره پیامک کنید که در حال حاضر نمی توانید تماس بگیرید و باید در واتس اپ یا تلگرام پیام ارسال کنند یا بهتر است پیام ارسال کنند.

مراقب لینک هایی که کلیک می کنید باشید: مراقب لینک هایی باشید که دریافت می کنید، به خصوص از لینک هایی که به عنوان بخشی از لیست مخاطبین شما ذخیره نشده اند. کلاهبرداران روی قربانیان خود حساب می کنند تا روی این پیوندها کلیک کنند، که سپس بدافزاری را در تلفن شما نصب می کند و انواع اطلاعات حیاتی را ارسال می کند.


منبع: https://www.firstpost.com/tech/artificial-fraudulence-lucknow-man-duped-of-rs-45k-by-ai-cloned-voice-second-such-instance-in-2-weeks-13521372.html

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *