ابزار جدید به هنرمندان این امکان را می‌دهد که با پنهان کردن داده‌های فاسد در معرض دید، با ربات‌های تصویر هوش مصنوعی مبارزه کنند

از اعتصابات هالیوود گرفته تا پرتره های دیجیتال، پتانسیل هوش مصنوعی برای سرقت آثار خلاقان و نحوه متوقف کردن آن بر مکالمات فناوری در سال ۲۰۲۳ غالب شده است. آخرین تلاش برای محافظت از هنرمندان و آثار آنها Nightshade است، ابزاری که به هنرمندان اجازه می دهد پیکسل های غیرقابل شناسایی را به آثار خود اضافه کنند. که می تواند داده های آموزشی هوش مصنوعی را خراب کند، را بررسی فناوری MIT گزارش ها. ساخت Nightshade همانطور که شرکت های بزرگ دوست دارند انجام می شود OpenAI و Meta به دلیل نقض حق چاپ با شکایت روبرو هستند و سرقت آثار شخصی بدون غرامت.

پروفسور دانشگاه شیکاگو، بن ژائو و تیمش، Nightshade را ایجاد کردند که در حال حاضر در حال بررسی است تا بخشی از قدرت را در دستان هنرمندان قرار دهند. آن‌ها آن را روی مدل‌های اخیر Stable Diffusion و هوش مصنوعی که شخصاً از ابتدا ساخته‌اند آزمایش کردند.

Nightshade اساساً به عنوان یک سم عمل می کند و نحوه تولید محتوا و ظاهر محصول نهایی را تغییر می دهد. برای مثال، می‌تواند باعث شود یک سیستم هوش مصنوعی درخواست کیف دستی را به‌عنوان توستر تفسیر کند یا تصویری از یک گربه را به‌جای سگ درخواستی نشان دهد (همین امر در مورد درخواست‌های مشابه مانند توله سگ یا گرگ صدق می‌کند).

پروفسور بن ژائو دانشگاه شیکاگو

Nightshade به دنبال انتشار ابزاری به نام Glaze توسط ژائو و تیمش در ماه اوت است که به‌طور نامحسوسی پیکسل‌های یک اثر هنری را تغییر می‌دهد، اما باعث می‌شود سیستم‌های هوش مصنوعی تصویر اولیه را کاملاً متفاوت از آنچه هست تشخیص دهند. هنرمندی که می‌خواهد از آثار خود محافظت کند، می‌تواند آن را در Glaze آپلود کند و استفاده از Nightshade را انتخاب کند.

فناوری آسیب‌رسان مانند Nightshade می‌تواند تا حد زیادی به تشویق بازیگران اصلی هوش مصنوعی کمک کند تا درخواست کنند و جبران کار هنرمندان به درستی (به نظر می رسد جایگزین بهتری برای سیم کشی مجدد سیستم شما باشد). شرکت‌هایی که به دنبال حذف سم هستند، احتمالاً باید هر قطعه از داده‌های فاسد را پیدا کنند، کاری چالش برانگیز. ژائو هشدار می دهد که برخی از افراد ممکن است سعی کنند از این ابزار برای اهداف شیطانی استفاده کنند، اما هر آسیب واقعی به هزاران اثر خراب نیاز دارد.

این مقاله ابتدا در Engadget در https://www.engadget.com/new-tool-lets-artists-fight-ai-image-bots-by-hiding-corrupt-data-in-plain-sight-095519848.html منتشر شد. ?src=rss


منبع: https://www.engadget.com/new-tool-lets-artists-fight-ai-image-bots-by-hiding-corrupt-data-in-plain-sight-095519848.html?src=rss

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *