در تحقیقات اخیر، مشخص شده است که تولیدکنندههای تصویر هوش مصنوعی که به طور گسترده مورد استفاده قرار میگیرند، یک نقص نگرانکننده را پنهان میکنند – هزاران تصویر که آزار جنسی کودکان را نشان میدهد.
یافتههای نگرانکننده از گزارشی که توسط رصدخانه اینترنت استنفورد منتشر شده است، به دست میآید که از شرکتها میخواهد این مشکل نگرانکننده را در فناوری توسعهیافته خود حل و فصل کنند.
این گزارش نشان میدهد که این سیستمهای هوش مصنوعی که با تصاویری از استثمار کودکان تثبیت شدهاند، نه تنها محتوای صریح با کودکان جعلی تولید میکنند، بلکه میتوانند عکسهای نوجوانان کاملاً پوشیده را به چیزی نامناسب تبدیل کنند.
تا به حال، محققان ضد سوء استفاده فرض میکردند که ابزارهای هوش مصنوعی که تصاویر توهینآمیز تولید میکنند، اطلاعات پورنوگرافی بزرگسالان و تصاویر بیضرر کودکان را با جمعآوری آنها از مکانهای دیگر در اینترنت ترکیب میکنند. با این حال، رصدخانه اینترنتی استانفورد بیش از ۳۲۰۰ تصویر از سوء استفاده جنسی مشکوک به کودکان را در خود پایگاه داده LAION AI کشف کرد.
LAION، فهرست عظیمی از تصاویر و زیرنویسهای آنلاین، برای آموزش مدلهای برجسته ساخت تصویر هوش مصنوعی، مانند Stable Diffusion استفاده میشود.
در پاسخ به این گزارش، LAION به طور موقت مجموعه داده های خود را حذف کرده است. این سازمان بر سیاست تحمل صفر برای محتوای غیرقانونی تاکید می کند و بیان می کند که حذف یک اقدام احتیاطی برای اطمینان از ایمنی مجموعه داده ها قبل از انتشار مجدد آنها است.
اگرچه این تصاویر مشکل ساز کسری از شاخص وسیع ۵٫۸ میلیارد تصویر LAION را تشکیل می دهند، گروه استنفورد استدلال می کند که احتمالاً بر توانایی ابزارهای هوش مصنوعی برای تولید خروجی های مضر تأثیر می گذارد.
علاوه بر این، این گزارش نشان می دهد که وجود این تصاویر باعث تقویت سوء استفاده قبلی از قربانیان واقعی می شود که ممکن است چندین بار ظاهر شوند.
این گزارش چالش های موجود در پرداختن به این موضوع را برجسته می کند و آن را به توسعه شتابزده و دسترسی گسترده به بسیاری از پروژه های هوش مصنوعی مولد به دلیل رقابت شدید در این زمینه نسبت می دهد.
رصدخانه اینترنت استنفورد خواستار توجه جدی تر برای جلوگیری از گنجاندن غیرعمدی محتوای غیرقانونی در مجموعه داده های آموزشی هوش مصنوعی است.
Stability AI، یکی از کاربران برجسته LAION، این مشکل را تصدیق کرده و تاکید می کند که اقدامات پیشگیرانه ای را برای کاهش خطر سوء استفاده انجام داده است. با این حال، نسخه قدیمیتر Stable Diffusion، که به عنوان محبوبترین مدل برای تولید تصاویر واضح شناخته میشود، همچنان در گردش است.
گزارش استنفورد خواستار اقدامات شدیدی از جمله حذف مجموعههای آموزشی مشتق شده از LAION و ناپدید شدن نسخههای قدیمیتر مدلهای هوش مصنوعی مرتبط با محتوای صریح است. همچنین از پلتفرمهایی مانند CivitAI و Hugging Face میخواهد تا مکانیسمهای حفاظتی و گزارش بهتری را برای جلوگیری از تولید و توزیع تصاویر توهینآمیز اجرا کنند.
در پاسخ به این یافتهها، از شرکتهای فناوری و گروههای ایمنی کودکان خواسته میشود اقداماتی مشابه اقداماتی که برای ردیابی و حذف مواد کودک آزاری در فیلمها و تصاویر استفاده میشود، اتخاذ کنند. این گزارش پیشنهاد میکند که امضاهای دیجیتال یا «هش» منحصربهفردی را به مدلهای هوش مصنوعی اختصاص دهید تا موارد سوء استفاده را ردیابی و حذف کنید.
در حالی که شیوع تصاویر تولید شده توسط هوش مصنوعی در بین سوء استفاده کنندگان در حال حاضر اندک است، گزارش استنفورد بر نیاز توسعه دهندگان برای اطمینان از عاری بودن مجموعه داده هایشان از مواد سوء استفاده کننده و تلاش های مداوم برای کاهش استفاده های مضر با رواج مدل های هوش مصنوعی تاکید می کند.
(با ورودی های نمایندگی ها)
منبع: https://www.firstpost.com/tech/ai-image-generators-are-being-trained-on-child-abuse-other-paedophile-content-content-finds-study-13534912.html