گوگل برنامه پاداش باگ خود را برای هدف قرار دادن حملات مولد هوش مصنوعی گسترش می دهد

با نگرانی هایی که در مورد هوش مصنوعی مولد همیشه وجود دارد، گوگل از گسترش برنامه پاداش آسیب پذیری خود (VRP) خبر داده است. تمرکز بر حملات خاص هوش مصنوعی و فرصت‌های بدخواهی. به این ترتیب، این شرکت دستورالعمل‌های به‌روزرسانی‌شده‌ای منتشر کرد که در آن جزئیات کدام اکتشافات واجد شرایط دریافت جوایز هستند و کدامیک از محدوده خارج می‌شوند. به عنوان مثال، کشف استخراج داده‌های آموزشی که اطلاعات خصوصی و حساس را فاش می‌کند، در محدوده مورد نظر قرار می‌گیرد، اما اگر فقط داده‌های عمومی و غیرحساس را نشان دهد، این کار را نمی‌کند. واجد شرایط دریافت پاداش. سال گذشته، گوگل ۱۲ میلیون دلار برای کشف باگ به محققان امنیتی داد.

گوگل توضیح داد که هوش مصنوعی مسائل امنیتی متفاوتی را نسبت به سایر فناوری‌هایش ارائه می‌کند – مانند دستکاری مدل و سوگیری ناعادلانه – نیاز به راهنمایی جدید برای منعکس کردن این موضوع. "ما بر این باوریم که گسترش VRP به تحقیقات در مورد ایمنی و امنیت هوش مصنوعی انگیزه می دهد و مسائل بالقوه را آشکار می کند که در نهایت هوش مصنوعی را برای همه ایمن تر می کند." این شرکت در بیانیه ای اعلام کرد. "ما همچنین در حال گسترش کار امنیتی منبع باز خود هستیم تا اطلاعات مربوط به امنیت زنجیره تامین هوش مصنوعی را به طور جهانی قابل کشف و تأیید کنیم."

شرکت‌های هوش مصنوعی، از جمله گوگل، در اوایل سال جاری در کاخ سفید گرد هم آمدند و متعهد به کشف و آگاهی بیشتر از آسیب‌پذیری‌های هوش مصنوعی شدند. گسترش VRP شرکت نیز جلوتر از a "وسیع" فرمان اجرایی رئیس جمهور بایدن طبق گزارشات، برای دوشنبه، ۳۰ اکتبر برنامه ریزی شده است، که ارزیابی ها و الزامات دقیقی را برای مدل های هوش مصنوعی قبل از هر گونه استفاده توسط سازمان های دولتی ایجاد می کند.

این مقاله در ابتدا در Engadget در https://www.engadget.com/google-expands-its-bug-bounty-program-to-target-generative-ai-attacks-120049796.html?src=rss ظاهر شد


منبع: https://www.engadget.com/google-expands-its-bug-bounty-program-to-target-generative-ai-attacks-120049796.html?src=rss

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *