VentureBeat ارائه می دهد: AI Unleashed – یک رویداد اجرایی انحصاری برای رهبران داده های سازمانی. در ۱۵ نوامبر از رهبران برتر صنعت بشنوید. پاس رایگان خود را رزرو کنید
شبیه سازی صدا – تمرین تقلید صدای یک نفر به خوبی که می تواند به واقعیت تبدیل شود – یک سال تبلیغاتی داشته است، با طیف وسیعی از استارتاپ ها و تکنیک های هوش مصنوعی که برای فعال کردن آن ظهور کرده اند، و آهنگی که شامل شبیه سازی صدای هنرمندان محبوب موسیقی است، در فضای مجازی پخش می شود. . دریک و The Weeknd.
اما برای کمیسیون تجارت فدرال (FTC)، آژانس دولتی فدرال ایالات متحده که مسئول تحقیق و پیشگیری از آسیب مصرفکننده و ترویج رقابت عادلانه در بازار است، شبیهسازی صوتی یک خطر بزرگ برای تقلب مصرفکننده است. تصور کنید شخصی صدای مادرتان را جعل می کند و از شما می خواهد که مثلاً ۵۰۰۰ دلار به سرعت برای او سیم کشی کنید. یا حتی شخصی که دزدی می کند و از صدای شما برای دسترسی به حساب های بانکی شما از طریق خط تلفن کمک مشتری استفاده می کند.
FTC به دنبال حرکت سریع (حداقل برای یک سازمان دولتی) برای رسیدگی به چنین سناریوهایی است. با توجه به الف دستور کار آزمایشی که توسط آژانس قبل از جلسه آتی خود در این پنجشنبه، ۱۶ نوامبر ارسال شده است، FTC “یک چالش شبیه سازی صوتی اکتشافی برای تشویق توسعه راه حل های چند رشته ای – از محصولات گرفته تا رویه ها – با هدف محافظت از مصرف کنندگان در برابر آسیب های شبیه سازی صوتی مبتنی بر هوش مصنوعی اعلام خواهد کرد. مانند کلاهبرداری و سوء استفاده گسترده تر از داده های بیومتریک و محتوای خلاقانه.
به عبارت دیگر: FTC از فنآوران و اعضای عمومی میخواهد تا راههایی برای جلوگیری از فریب دادن افراد توسط کلونهای صوتی ارائه دهند.
فناوری به سرعت در حال پیشرفت است که ارزش پول کلان را دارد
در یکی از نمایشهای پتانسیل تبلیغاتی شبیهسازی صدا، یک فیلمساز با تولید الف بسیاری را شوکه کرد ویدیوی عمیق واقعی با ظاهر واقعی جیل بایدن بانوی اول را در حال انتقاد از سیاست آمریکا در قبال فلسطین به تصویر می کشد. در حالی که به عنوان طنز برای جلب توجه به نگرانیهای بشردوستانه در نظر گرفته شده بود، نشان داد که چگونه هوش مصنوعی میتواند با استفاده از یک کلون ترکیبی از صدای بانوی اول، یک روایت جعلی به ظاهر قابل قبول ایجاد کند.
تولیدکننده توانست با استفاده از ElevenLabs مستقر در بریتانیا، یکی از برترین استارتآپهای شبیهسازی صدا در خط مقدم این بخش نوظهور، دیپفیک را تنها در یک هفته بسازد. توسط کارمندان سابق استارت آپ جنجالی هوش مصنوعی اطلاعاتی نظامی و شرکتی Palantir. بر اساس گزارش ها، ElevenLabs علاقه سرمایه گذاران را افزایش داده است در حال مذاکره برای جذب یک میلیارد دلار طبق منابعی که با Business Insider صحبت کردند، در دور سوم تأمین مالی امسال.
این رشد سریع نشان دهنده چشم انداز تجاری رو به رشد شبیه سازی صوتی است و مانند هوش مصنوعی به طور کلی، راه حل های منبع باز نیز موجود هستند.
با این حال، پیشرفت سریعتر همچنین به معنای فرصتهای بیشتر برای سوء استفاده مضر است که ممکن است قبل از رسیدن به پادمانها ایجاد شود. هدف تنظیمکنندهها این است که از طریق تلاشهای پیشگیرانه مانند برنامه چالش جدید FTC جلوی مشکلات را بگیرند.
استانداردهای داوطلبانه ممکن است کافی نباشد
هسته اصلی نگرانی ها، توانایی شبیه سازی صدا برای تولید گفتار به ظاهر معتبر تنها از چند دقیقه نمونه صوتی است. این امکان را برای ایجاد و انتشار صداها و ویدیوهای جعلی با هدف فریب یا دستکاری عمدی شنوندگان افزایش میدهد. کارشناسان در مورد خطرات تقلب، دیپ فیک های مورد استفاده برای شرمساری عمومی یا دخالت نادرست اهداف، و تبلیغات مصنوعی که بر فرآیندهای سیاسی تأثیر می گذارد، هشدار می دهند.
کاهش تا کنون بر اقدامات داوطلبانه توسط شرکت ها و حمایت از استانداردها اما ممکن است خودتنظیمی کافی نباشد. چالشهایی مانند FTC یک راه هماهنگ و بین رشتهای برای رفع سیستماتیک آسیبپذیریها ارائه میکند. از طریق اعطای کمک های مالی رقابتی، این چالش به دنبال همکاری ذینفعان برای توسعه راه حل های فنی، قانونی و سیاستی است که از مسئولیت پذیری و حمایت از مصرف کننده پشتیبانی می کند.
ایدهها میتوانند از بهبود روشهای تشخیص عمیق تا ایجاد استانداردهای منشأ و افشا برای رسانههای مصنوعی متغیر باشند. کاهشهای حاصله به جای اینکه پیشرفت را متوقف کند، به نوآوری ایمن ادامه میدهد. با همکاری واشنگتن و شرکای خصوصی، راه حل های جامع و متوازن برای ایجاد تعادل بین حقوق و مسئولیت ها می تواند ظاهر شود.
FTC برای رسیدگی به آسیب های ژنرال هوش مصنوعی حرکت می کند
با توجه به نظرات به اداره کپی رایت ایالات متحده ارسال شده استFTC در مورد خطرات بالقوه استفاده نادرست از هوش مصنوعی مولد یا فریب مصرف کنندگان هشدار داد.
با ابراز احتیاط نسبت به آموزش سیستمهای هوش مصنوعی بر روی «محتوای دزدان دریایی بدون رضایت»، این پرونده با بحثهایی در مورد اینکه آیا ابزارهای شبیهسازی صدا به اندازه کافی مجوز در هنگام استفاده از نمونههای گفتار افراد را دریافت میکنند، همسو شد. چالش شبیهسازی صوتی میتواند از توسعه بهترین شیوهها برای جمعآوری و مدیریت مسئولانه دادههای شخصی پشتیبانی کند.
FTC همچنین در مورد خطرات فریب مصرف کنندگان در صورت جعل هویت افراد توسط هوش مصنوعی هشدار داد. از طریق این چالش، FTC قصد دارد ایجاد تکنیک هایی را برای نسبت دادن دقیق گفتار مصنوعی و جلوگیری از دروغ های عمیق گمراه کننده تقویت کند.
با راهاندازی این چالش، به نظر میرسد FTC به دنبال هدایت فعالانه شبیهسازی صدا و سایر فناوریهای مولد به سمت راهحلهایی است که میتواند نگرانیهای مصرفکننده و رقابت را که در پرونده حق چاپ آن مطرح میشود، کاهش دهد.
ماموریت VentureBeat این است که یک میدان شهر دیجیتال برای تصمیم گیرندگان فنی باشد تا دانشی در مورد فناوری سازمانی متحول کننده کسب کنند و معامله کنند. جلسات توجیهی ما را کشف کنید.
منبع: https://venturebeat.com/ai/ftc-hosts-challenge-to-stop-harms-of-voice-cloning-ai/