هوش مصنوعی وضعیت غزه را بدتر می کند، حماس و اسرائیل از دیپ فیک برای تحت تأثیر قرار دادن افکار عمومی استفاده می کنند

دیپ فیک اکنون بخشی از درگیری اسرائیل و غزه است. ما شاهد تکثیر تصاویر دستکاری شده با هدف فریب دادن مردم و تحت تأثیر قرار دادن افکار عمومی بوده ایم. اکنون، پلتفرم‌های رسانه‌های اجتماعی مملو از تصاویر ناراحت‌کننده‌ای مانند جسد خون‌آلود، عکس نوزادی در حال گریه است که ظاهراً در محیطی پر از آوار قرار گرفته است، و تصاویری که در ابتدا این تصور را نشان می‌دهد که کل محله غزه با خاک یکسان شده است.

با این حال، تعدادی از آنها که اغلب از صفحات رسمی پلتفرم‌های خبری و وزرا به اشتراک گذاشته می‌شوند، مشخص شده است که توسط هوش مصنوعی تولید شده‌اند.

اسرائیل و حماس هر دو از دیپ فیکس استفاده می کنند

Dpepfakes هم توسط اسرائیل و هم توسط حماس استفاده شده است. با این حال، میزان موفقیت این دستکاری‌ها در متقاعد کردن توده‌ها از طریق رسانه‌های اجتماعی، شکل‌دهی به افکار عمومی، تأثیرگذاری بر تصمیم‌گیری‌ها و تکثیر، باعث نگرانی شده است، زیرا چقدر آسان است که اکثر مردم گرفتار چنین تصاویری شوند.

بخش قابل توجهی از تصاویر تقلبی که در پلتفرم های مختلف از جمله X و فیس بوک ظاهر شده اند ممکن است به درستی به عنوان تصاویر “شوک و هیبت” توصیف شوند. این طبقه‌بندی که توسط هنری آژدر، یکی از مقامات در زمینه دیپ‌فیک‌ها و هوش مصنوعی مولد ارائه شده است، بر طراحی عمدی این تصاویر برای برانگیختن احساسات شدید و واکنش‌های فوری و هیجان‌انگیز تاکید می‌کند.

قابلیت‌های تولیدکننده‌های تصویر هوش مصنوعی در طول زمان به طور قابل توجهی تکامل یافته است، که باعث شده تصاویر متقاعدکننده‌تر و ایجاد آسان‌تر شوند. در عصری که اطلاعات نادرست در رسانه‌های اجتماعی در سیاست، درگیری‌ها و سایر رویدادهای مهم بسیار رایج است، افزایش تعداد تصاویر عمیق جعلی که به سختی قابل تشخیص هستند، یک تهدید جدی است.

سود سهام دروغگو

شایان ذکر است که تشخیص دیپ فیک با زمینه ضعیف و غیرقابل اعتماد می تواند مضرتر از عدم شناسایی باشد. چنین روش‌های تشخیص غیرقابل اعتمادی ممکن است حس اعتماد کاذبی را در تمایز بین محتوای واقعی و دستکاری شده ایجاد کند که منجر به ارزیابی‌های نادرست شود. این پدیده اغلب به عنوان “سود سهام دروغگو” نامیده می شود، اصطلاح دیگری که توسط Ajder ابداع شده است.

تجزیه و تحلیل اخیری که توسط شرکت هوش مصنوعی Accrete برای Bloomberg News انجام شد نشان داد که پنج حساب مرتبط با یک شبکه همسو با حماس در پلتفرم X به طور مداوم ادعا می‌کنند که فیلم‌های واقعی از اسرائیل با استفاده از فناوری هوش مصنوعی به‌عنوان وسیله‌ای برای بی‌اعتبار کردن صحت محتوا تولید شده است. به طور مشابه، محتوایی که از حماس می‌آید به‌عنوان تولید هوش مصنوعی پرچم‌گذاری شده است، در حالی که در واقع واقعی بودن آنها ثابت شده است.

مفاد امنیتی جانبی بسیار آسان شده است

اندی کاروین، یکی از همکاران ارشد آزمایشگاه تحقیقات قانونی دیجیتال شورای آتلانتیک، خاطرنشان کرد که مواجهه با بحث‌ها در پلتفرم‌های اجتماعی مانند فیس‌بوک و X که در آن افراد صحت و زمینه تصاویر را به چالش می‌کشند، به یک اتفاق عادی تبدیل شده است.

کاروین، نماینده شورای آتلانتیک، تأکید کرد که تصاویر عمیق جعلی از طریق حساب‌های مرتبط با منافع اسرائیل و فلسطین به صورت آنلاین منتشر می‌شوند. مشاهده شده است که برخی از افراد برای حمایت از دلایل خاص، تصاویر دستکاری شده را ایجاد می کنند و اغلب تصاویر کودکان را در خود جای می دهند.

اگرچه ابزارهای مولد هوش مصنوعی معمولاً تدابیری را در برابر ایجاد محتوای خشونت آمیز در بر می گیرند، کاروین توضیح داد که دستور دادن به این ابزارها برای ایجاد تصاویری با کودکان، مانند تصویر گروهی از کودکان پس از یک حمله هوایی، نسبتاً ساده است.

(با نظر آژانس ها)


منبع: https://www.firstpost.com/world/ai-making-gaza-situation-worse-hamas-israel-using-deepfakes-to-sway-public-opinion-13327892.html

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *