یازده آزمایشگاهیک استارتآپ هوش مصنوعی که خدمات شبیهسازی صدا را با ابزارهای خود ارائه میدهد، کاربری را که از جو بایدن برای ایجاد اختلال در انتخابات استفاده کرده بود، ممنوع کرده است. بلومبرگ. صوتی جعل هویت رئیسجمهور در یک تماس غیرقانونی استفاده شد که هفته گذشته برای برخی از رایدهندگان در نیوهمپشایر پخش شد و از آنها خواست در انتخابات مقدماتی ایالت خود رای ندهند. در ابتدا مشخص نبود که از چه فناوری برای کپی کردن صدای بایدن استفاده شده است، اما الف تجزیه و تحلیل کامل توسط شرکت امنیتی پیندروپ نشان داد که عاملان از ابزار ElevanLabs استفاده می کردند.
این شرکت امنیتی نویز پسزمینه را حذف کرد و قبل از مقایسه آن با نمونههایی از بیش از ۱۲۰ فناوری سنتز صدا که برای تولید دیپفیک استفاده میشوند، صدای تماس روبوکال را تمیز کرد. ویجی بالاسوبرامانیان، مدیرعامل پیندروپ به این موضوع گفت سیمی که “به خوبی از ۹۹ درصد که ElevenLabs بود، به شمال بازگشت.” بلومبرگ میگوید که این شرکت از یافتههای پیندروپ مطلع شده و همچنان در حال بررسی است، اما قبلاً حسابی را که صدای جعلی را ساخته است، شناسایی کرده و معلق کرده است. ElevenLabs به این سازمان خبری گفت که نمی تواند درباره این موضوع اظهار نظر کند، اما “به جلوگیری از سوء استفاده از ابزارهای هوش مصنوعی صوتی اختصاص داده شده است. [that it takes] هر گونه حادثه سوء استفاده بسیار جدی است.”
فراخوان دروغین بایدن نشان میدهد که چگونه فناوریهایی که میتوانند شبیه و صدای دیگران را تقلید کنند، میتوانند برای دستکاری آرا در این انتخابات ریاستجمهوری آتی در ایالات متحده استفاده شوند. کاتلین کارلی، استاد دانشگاه کارنگی ملون، گفت: «این فقط نوک کوه یخ در مورد سرکوب رأی دهندگان یا حمله به کارکنان انتخاباتی است. تپه. “این تقریباً منادی آن چیزی بود که باید در چند ماه آینده منتظر همه چیز باشیم.”
آن را فقط چند روز اینترنت گرفت پس از اینکه ElevenLabs نسخه بتای پلتفرم خود را راه اندازی کرد تا شروع به استفاده از آن برای ایجاد کلیپ های صوتی کند که شبیه به خواندن یا گفتن چیزهای مشکوک توسط افراد مشهور باشد. این استارت آپ به مشتریان اجازه می دهد تا از فناوری خود برای شبیه سازی صداها برای «سخنرانی هنری و سیاسی که در بحث های عمومی مشارکت دارند» استفاده کنند. آن صفحه ایمنی به کاربران هشدار می دهد که “نمی توانند صدایی را برای اهداف توهین آمیز مانند کلاهبرداری، تبعیض، سخنان مشوق عداوت و تنفر یا هر نوع سوء استفاده آنلاین بدون نقض قانون شبیه سازی کنند.” اما واضح است که باید تدابیر امنیتی بیشتری برای جلوگیری از استفاده بازیگران بد از ابزارهای آن برای تأثیرگذاری بر رأی دهندگان و دستکاری انتخابات در سراسر جهان ایجاد کند.
این مقاله در ابتدا در Engadget در https://www.engadget.com/elevenlabs-reportedly-banned-the-account-that-deepfaked-bidens-voice-with-its-ai-tools-083355975.html?src=rss ظاهر شد.
منبع: https://www.engadget.com/elevenlabs-reportedly-banned-the-account-that-deepfaked-bidens-voice-with-its-ai-tools-083355975.html?src=rss