دیپ فیک اکنون بخشی از درگیری اسرائیل و غزه است. ما شاهد تکثیر تصاویر دستکاری شده با هدف فریب دادن مردم و تحت تأثیر قرار دادن افکار عمومی بوده ایم. اکنون، پلتفرمهای رسانههای اجتماعی مملو از تصاویر ناراحتکنندهای مانند جسد خونآلود، عکس نوزادی در حال گریه است که ظاهراً در محیطی پر از آوار قرار گرفته است، و تصاویری که در ابتدا این تصور را نشان میدهد که کل محله غزه با خاک یکسان شده است.
با این حال، تعدادی از آنها که اغلب از صفحات رسمی پلتفرمهای خبری و وزرا به اشتراک گذاشته میشوند، مشخص شده است که توسط هوش مصنوعی تولید شدهاند.
اسرائیل و حماس هر دو از دیپ فیکس استفاده می کنند
Dpepfakes هم توسط اسرائیل و هم توسط حماس استفاده شده است. با این حال، میزان موفقیت این دستکاریها در متقاعد کردن تودهها از طریق رسانههای اجتماعی، شکلدهی به افکار عمومی، تأثیرگذاری بر تصمیمگیریها و تکثیر، باعث نگرانی شده است، زیرا چقدر آسان است که اکثر مردم گرفتار چنین تصاویری شوند.
بخش قابل توجهی از تصاویر تقلبی که در پلتفرم های مختلف از جمله X و فیس بوک ظاهر شده اند ممکن است به درستی به عنوان تصاویر “شوک و هیبت” توصیف شوند. این طبقهبندی که توسط هنری آژدر، یکی از مقامات در زمینه دیپفیکها و هوش مصنوعی مولد ارائه شده است، بر طراحی عمدی این تصاویر برای برانگیختن احساسات شدید و واکنشهای فوری و هیجانانگیز تاکید میکند.
قابلیتهای تولیدکنندههای تصویر هوش مصنوعی در طول زمان به طور قابل توجهی تکامل یافته است، که باعث شده تصاویر متقاعدکنندهتر و ایجاد آسانتر شوند. در عصری که اطلاعات نادرست در رسانههای اجتماعی در سیاست، درگیریها و سایر رویدادهای مهم بسیار رایج است، افزایش تعداد تصاویر عمیق جعلی که به سختی قابل تشخیص هستند، یک تهدید جدی است.
سود سهام دروغگو
شایان ذکر است که تشخیص دیپ فیک با زمینه ضعیف و غیرقابل اعتماد می تواند مضرتر از عدم شناسایی باشد. چنین روشهای تشخیص غیرقابل اعتمادی ممکن است حس اعتماد کاذبی را در تمایز بین محتوای واقعی و دستکاری شده ایجاد کند که منجر به ارزیابیهای نادرست شود. این پدیده اغلب به عنوان “سود سهام دروغگو” نامیده می شود، اصطلاح دیگری که توسط Ajder ابداع شده است.
تجزیه و تحلیل اخیری که توسط شرکت هوش مصنوعی Accrete برای Bloomberg News انجام شد نشان داد که پنج حساب مرتبط با یک شبکه همسو با حماس در پلتفرم X به طور مداوم ادعا میکنند که فیلمهای واقعی از اسرائیل با استفاده از فناوری هوش مصنوعی بهعنوان وسیلهای برای بیاعتبار کردن صحت محتوا تولید شده است. به طور مشابه، محتوایی که از حماس میآید بهعنوان تولید هوش مصنوعی پرچمگذاری شده است، در حالی که در واقع واقعی بودن آنها ثابت شده است.
مفاد امنیتی جانبی بسیار آسان شده است
اندی کاروین، یکی از همکاران ارشد آزمایشگاه تحقیقات قانونی دیجیتال شورای آتلانتیک، خاطرنشان کرد که مواجهه با بحثها در پلتفرمهای اجتماعی مانند فیسبوک و X که در آن افراد صحت و زمینه تصاویر را به چالش میکشند، به یک اتفاق عادی تبدیل شده است.
کاروین، نماینده شورای آتلانتیک، تأکید کرد که تصاویر عمیق جعلی از طریق حسابهای مرتبط با منافع اسرائیل و فلسطین به صورت آنلاین منتشر میشوند. مشاهده شده است که برخی از افراد برای حمایت از دلایل خاص، تصاویر دستکاری شده را ایجاد می کنند و اغلب تصاویر کودکان را در خود جای می دهند.
اگرچه ابزارهای مولد هوش مصنوعی معمولاً تدابیری را در برابر ایجاد محتوای خشونت آمیز در بر می گیرند، کاروین توضیح داد که دستور دادن به این ابزارها برای ایجاد تصاویری با کودکان، مانند تصویر گروهی از کودکان پس از یک حمله هوایی، نسبتاً ساده است.
(با نظر آژانس ها)
منبع: https://www.firstpost.com/world/ai-making-gaza-situation-worse-hamas-israel-using-deepfakes-to-sway-public-opinion-13327892.html