راشمیکا ماندانا، کاترینا کیف، اکنون کاجول: چرا شاهد افزایش ناگهانی ویدیوهای دیپ فیک هستیم

ویدیویی که ظاهراً نشان می‌دهد کاجول بازیگر بالیوودی در حال تبدیل شدن به لباسی است که اوایل این هفته در رسانه‌های اجتماعی در فضای مجازی منتشر شد، به عنوان یک دیپ‌فیک فاش شد. این ویدیوی گمراه‌کننده که به طور گسترده در پلتفرم‌های رسانه‌های اجتماعی بزرگ مانند فیس‌بوک، ایکس (توئیتر سابق) و یوتیوب منتشر شد، در اصل مربوط به این بازیگر نبود، بلکه یک تأثیرگذار رسانه‌های اجتماعی بود.

این افشاگری در بحبوحه موج فزاینده‌ای از نگرانی‌ها در مورد دیپ‌فیک‌ها رخ می‌دهد، که توسط یک ویدیوی ویروسی که قبلاً منتشر شده بود، بازیگر محبوب راشمیکا ماندانا را به دروغ به تصویر می‌کشید که اتفاقی مشابه برای او افتاد، و همچنین کاترینا کایف، که دیپ فیک او با استفاده از صحنه‌ای از این فیلم اخیر ساخته شده بود.

یک پلتفرم راستی‌آزمایی تأیید کرده است که ویدیوی دیپ‌فیک که کاجول را نشان می‌دهد، در اصل یک تأثیرگذار رسانه‌های اجتماعی را نشان می‌دهد. چهره کاجول به صورت دیجیتالی در فیلم دستکاری شده است. برای کسری از ثانیه در ویدیوی دیپ‌فیک شکل‌یافته، چهره زن واقعی نمایان می‌شود.

این گزارش نشان می‌دهد که ویدئوی اولیه در ابتدا در ۵ ژوئن در TikTok به عنوان بخشی از روند محبوب “Get Ready With Me” (GRWM) آپلود شد، اما سازنده اصلی ناشناس باقی مانده است.

دیپ‌فیک‌ها، که نه تنها شامل ویدیوهای دستکاری شده، بلکه شامل تصاویر و صدا نیز می‌شوند، به طور فزاینده‌ای رایج می‌شوند، عمدتاً به شکل محتوای صریح و پیام‌های سیاسی، که سپس برای اطلاعات نادرست استفاده می‌شوند.

این یک چالش بزرگ برای هنجارهای اجتماعی است. به دنبال هیاهو در مورد دیپ فیک مربوط به راشمیکا ماندانا، دولت هند توصیه ای به پلتفرم های رسانه های اجتماعی بزرگ صادر کرد و خواستار اقدام سریع علیه دیپ فیک و حذف محتوای منتشر کننده اطلاعات نادرست شد.

انتظار می رود که پلتفرم ها چنین محتوایی را ظرف ۳۶ ساعت پس از ثبت شکایت حذف کنند. با این حال، مقررات موجود در مورد هوش مصنوعی و دیپ فیک ممکن است ناکافی باشد.

آرون بوگال، مدیر ارشد فناوری در Sophos، نقش هوش مصنوعی پیشرفته را در ایجاد محتوای دیپ‌فیک، که اغلب از نمایه‌های رسانه‌های اجتماعی در دسترس عموم گرفته می‌شود، برجسته می‌کند. در حالی که محدود کردن نمایه‌ها به تنظیمات خصوصی ممکن است قرار گرفتن در معرض را کاهش دهد، ارسال مجدد یا سوء استفاده توسط مخاطبین شناخته شده همچنان یک نگرانی است. بوگال بر اهمیت توصیه‌های وزارت الکترونیک و فناوری اطلاعات هند (MeitY) تأکید می‌کند که به شرکت‌های رسانه‌های اجتماعی در مورد مجازات‌های احتمالی، از جمله از دست دادن حقوق بندر امن، برای عدم حذف فوری محتوای دیپ‌فیک هشدار می‌دهد.

به عنوان یک اقدام محافظتی، Bugal استفاده از ویدیوهای امضا شده دیجیتالی را برای تأیید محتوای قابل اعتماد پیشنهاد می‌کند و آن را به گواهی‌هایی که امنیت وب‌سایت و ارتباطات ایمیل را تأیید می‌کنند، تشبیه می‌کند. با تکامل مداوم فن آوری و بهبود کیفیت دیپ فیک، تمایز بین محتوای معتبر و دستکاری شده ممکن است به طور فزاینده ای چالش برانگیز شود و یک فرآیند اعتبار سنجی قابل اعتماد را ضروری کند.

سلبریتی‌هایی که برای تبلیغ برند خود به یک شخصیت عمومی دست می‌یابند، در کاهش خطرات دیپ‌فیک با چالش‌های خاصی روبرو هستند. Bugal نظارت پیشگیرانه را با استفاده از ابزارهایی مانند Google Alerts و BING News Alerts توصیه می کند تا در صورت ذکر نام یا نام تجاری آنها به صورت آنلاین، فوراً به افراد اطلاع داده شود. این امکان بررسی سریع و پاسخ به اظهارات نادرست را فراهم می کند، چه از طریق اقدامات حذف یا اصلاحات عمومی.


منبع: https://www.firstpost.com/tech/rashmika-mandanna-katrina-kaif-now-kajol-why-are-we-seeing-sudden-uptick-in-deepfake-videos-13396322.html

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *