این اولین باری نبود که از یک ابزار هوش مصنوعی برای ارتکاب کلاهبرداری استفاده می شد. اوایل سال جاری، یک مرد چینی پس از اینکه یک مجرم سایبری از ابزار تعویض چهره با هوش مصنوعی برای جعل هویت دوست قربانی استفاده کرد و او را متقاعد به انتقال پول کرد، بیش از نیم میلیون دلار سرقت شد. رویترز.
اخبار سی بی اس همچنین در مورد افزایش ابزارهای هوش مصنوعی صوتی که میتوانند صدای یک نفر را شبیهسازی کنند، گزارش شده است، که سپس برای ظاهر شدن به عنوان یک فرد مضطرب استفاده میشود. CNN ماجرای مشابهی را پوشش داد که در آن کلاهبرداران سعی کردند مادری را فریب دهند تا تصور کند دخترش با استفاده از صدای جعلی او ربوده شده است. در مورد دیگری که توسط خودیبه پدری از طریق تلفن گفته شد که پسرش دچار تصادف شدید شده است.
مجرمان اغلب از چنین موقعیت هایی استفاده می کنند و رسانه های جعلی را برای عزیزانشان ارسال می کنند تا با این ادعا که برای کمک های اضطراری نیاز است، پول استخراج کنند. این یک برداشت مدرن از کلاهبرداری های فریبنده است که چیز جدیدی نیست. در گزارش فوریه ۲۰۲۳، FTC گفت که شهروندان آمریکایی از دست دادند نزدیک به ۲٫۶ میلیارد دلار برای این نوع کلاهبرداری در سال ۲۰۲۲٫ با این حال، ظهور هوش مصنوعی مولد خطرات را به طور چشمگیری افزایش داده است.
منبع: https://www.slashgear.com/1440098/ai-voice-call-scams-how-to-spot-them/