اخیراً کاخ سفید بایدن تصویب کرد آخرین دستور اجرایی آن طراحی شده برای ایجاد یک چارچوب راهنما برای توسعه هوش مصنوعی مولد – از جمله احراز هویت محتوا و استفاده از واترمارک دیجیتال برای نشان دادن زمانی که دارایی های دیجیتال ساخته شده توسط دولت فدرال توسط کامپیوتر تولید می شوند. در اینجا آمده است که چگونه آن و فنآوریهای مشابه حفاظت از کپی ممکن است به سازندگان محتوا کمک کند تا در عصر اطلاعات نادرست هوش مصنوعی مولد، با امنیت بیشتری آثار آنلاین خود را تأیید کنند.
تاریخچه سریع واترمارکینگ
تکنیکهای واترمارکینگ آنالوگ برای اولین بار در سال ۱۲۸۲ در ایتالیا توسعه یافت. کاغذسازان سیمهای نازکی را در قالب کاشت میکردند که تقریباً بهطور نامحسوسی مناطق نازکتری از ورق ایجاد میکرد که وقتی در مقابل نور قرار میگرفتند آشکار میشدند. نه تنها از واترمارک های آنالوگ برای احراز هویت محل و نحوه تولید محصولات یک شرکت استفاده می شد، بلکه می توان از علامت ها برای ارسال پیام های پنهان و رمزگذاری شده نیز استفاده کرد. در قرن هجدهم، این فناوری به استفاده دولتی به عنوان وسیله ای برای جلوگیری از جعل ارز گسترش یافت. تکنیکهای واترمارک رنگی، که مواد رنگشده را بین لایههای کاغذ ساندویچ میکردند، در همان دوره توسعه یافتند.
اگرچه اصطلاح “واترمارکینگ دیجیتال” تا سال ۱۹۹۲ ابداع نشد، اولین فناوری پشت آن بود. ثبت اختراع توسط Muzac Corporation در سال ۱۹۵۴. سیستمی که آنها ساختند و تا زمانی که شرکت در دهه ۱۹۸۰ فروخته شد از آن استفاده می کردند، موسیقی متعلق به موزاک را با استفاده از یک “شناسایی می کرد.فیلتر بریدگیبرای مسدود کردن سیگنال صوتی در فرکانس ۱ کیلوهرتز در فوران های خاص، مانند کد مورس، برای ذخیره اطلاعات شناسایی.
شرکتهای نظارت بر تبلیغات و سنجش مخاطب مانند شرکت نیلسن مدتهاست که از تکنیکهای واترمارک استفاده میکنند برای برچسب گذاری آهنگ های صوتی برنامه های تلویزیونی برای ردیابی و درک آنچه خانواده های آمریکایی در حال تماشای آن هستند. این روشهای استگانوگرافی حتی به استاندارد بلوری مدرن راه پیدا کردهاند.سیستم سیناویا، و همچنین در برنامه های دولتی مانند احراز هویت گواهینامه های رانندگی، ارزهای ملی و سایر اسناد حساس به عنوان مثال، شرکت دیجیمارک، دارد یک واترمارک برای بسته بندی ایجاد کرد که بارکد محصول را تقریباً نامرئی در سراسر جعبه چاپ می کند و به هر اسکنر دیجیتالی در خط دید اجازه می دهد آن را بخواند. همچنین در برنامه های کاربردی مختلف استفاده شده است برند ضد جعل به افزایش راندمان بازیافت مواد.
اینجا و اکنون
واترمارک دیجیتال مدرن بر اساس همان اصول عمل می کند و به طور نامحسوسی اطلاعات اضافه شده را با استفاده از نرم افزار رمزگذاری ویژه روی یک قطعه محتوا (چه تصویر، چه ویدیو یا صدا) جاسازی می کند. این واترمارک ها به راحتی توسط ماشین ها خوانده می شوند اما تا حد زیادی برای کاربران انسانی نامرئی هستند. این روش با حفاظتهای رمزنگاری موجود مانند کلیدهای محصول یا دانگلهای حفاظتی نرمافزار متفاوت است زیرا واترمارکها به طور فعال از تغییر یا تکثیر غیرمجاز یک قطعه از محتوا جلوگیری نمیکنند، بلکه سابقهای از محل منبع محتوا یا دارنده حق نسخهبرداری ارائه میدهند.
با این حال، سیستم کامل نیست. “هیچ چیزی، به معنای واقعی کلمه، هیچ چیز برای محافظت از آثار دارای حق چاپ در برابر آموزش وجود ندارد [by generative AI models]دکتر بن ژائو، استاد علوم کامپیوتر در دانشگاه شیکاگو، به Engadget از طریق ایمیل به Engadget گفت، به جز کلمه غیرقابل تایید و غیرقابل اجرا شرکت های هوش مصنوعی.
هیچ روش رمزنگاری یا نظارتی موجود برای محافظت از آثار دارای حق چاپ وجود ندارد – هیچ یکاو گفت. “لیست های انصراف توسط آنها به تمسخر گرفته شده است ثبات.ai (آنها نام مدل را به SDXL تغییر داد نادیده گرفتن همه کسانی که برای انصراف از SD 3.0 ثبت نام کردهاند، و Facebook/Meta، که در انصراف اخیر خود به کاربران پاسخ دادند. لیست با پیامی که گفته شده است “شما نمی توانید ثابت کنید که قبلاً در مدل ما آموزش دیده اید، بنابراین نمی توانید انصراف دهید.”
ژائو میگوید در حالی که فرمان اجرایی کاخ سفید «جاهطلبانه است و زمینههای بسیار زیادی را در بر میگیرد»، برنامههایی که تا به امروز توسط کاخ سفید ارائه شده است، «جزئیات فنی در مورد چگونگی دستیابی به اهدافی که در آن تعیین کرده است» بسیار کم است.
او خاطرنشان میکند که “شرکتهای زیادی وجود دارند که تحت هیچ فشار قانونی یا قانونی قرار ندارند تا به زحمت واترمارک کردن خروجی genAI خود را به زحمت بیندازند. اقدامات داوطلبانه در یک محیط خصمانه که در آن ذینفعان تشویق میشوند از مقررات و نظارتها اجتناب کنند یا آنها را دور بزنند، کار نمیکنند.”
او افزود: «بخواهیم یا نخواهیم، شرکتهای تجاری برای کسب درآمد طراحی شدهاند و به نفع آنهاست که از مقررات دوری کنند».
ما همچنین میتوانیم به راحتی دولت بعدی ریاست جمهوری را ببینیم روی کار بیایند و فرمان اجرایی بایدن را از بین ببرند و تمام زیرساخت های فدرال که برای اجرای آن انجام شد، زیرا یک فرمان اجرایی فاقد جایگاه قانون اساسی قانون کنگره است. اما روی این حساب نکنید که مجلس و سنا نیز کاری در مورد این موضوع انجام دهند.
آنو برادفورد، استاد حقوق در دانشگاه کلمبیا، گفت: «کنگره عمیقاً قطبی شده و حتی ناکارآمد است تا جایی که بعید است در آینده نزدیک قانون معناداری برای هوش مصنوعی ایجاد کند. بررسی فنی MIT. تاکنون، مکانیسمهای اجرایی برای این طرحهای واترمارک به طور کلی محدود شدهاند سوگندهای صورتی توسط بازیگران اصلی این صنعت.
اعتبار محتوا چگونه کار می کند
با اینکه چرخهای دولت به آرامی میچرخند، جایگزینهای صنعتی ضروری هستند. مایکروسافت، نیویورک تایمز، CBC/Radio-Canada و BBC شروع به کار کردند مبدا پروژه در سال ۲۰۱۹ برای محافظت از یکپارچگی محتوا، صرف نظر از پلتفرمی که در آن مصرف می شود. در همان زمان، Adobe و شرکای آن راه اندازی شد ابتکار اصالت محتوا (CAI)، به موضوع از دیدگاه سازنده نزدیک می شود. در نهایت CAI و Project Origin تلاش های خود را برای ایجاد آن ترکیب کردند ائتلاف برای منشأ و اصالت محتوا (C2PA). از این ائتلاف ائتلاف ها Content Credentials (به اختصار «CR»)، که Adobe در رویداد Max خود اعلام کرد در سال ۲۰۲۱
CR اطلاعات اضافی را پیوست می کند در مورد یک تصویر هر زمان که در قالب یک مانیفست امن رمزنگاری صادر یا دانلود شود. مانیفست دادهها را از هدر تصویر یا ویدیو بیرون میکشد – اطلاعات سازنده، کجا گرفته شده، چه زمانی گرفته شده است، چه دستگاهی آن را گرفته است، آیا از سیستمهای هوش مصنوعی مولد مانند DALL-E یا Stable Diffusion استفاده شده است و چه ویرایشهایی از آن زمان انجام شده است. – به وبسایتها اجازه میدهد آن اطلاعات را در برابر ادعاهای منشأ ارائه شده در مانیفست بررسی کنند. هنگامی که با فناوری واترمارک ترکیب می شود، نتیجه یک روش احراز هویت منحصر به فرد است که نمی تواند به راحتی مانند EXIF و ابرداده (یعنی جزئیات فنی به طور خودکار توسط نرم افزار یا دستگاهی که تصویر را اضافه می کند) هنگام آپلود در سایت های رسانه های اجتماعی (در حساب کاربری) حذف شود. امضای فایل رمزنگاری شده). بی شباهت به فناوری بلاک چین نیست!
متادیتا معمولاً از جریانهای کاری رایج دوام نمیآورد زیرا محتوا در اینترنت به هم ریخته میشود، زیرا، کن سیکلز، مدیر تولید دیجیمارک به Engadget توضیح داد، بسیاری از سیستمهای آنلاین برای پشتیبانی یا خواندن آنها ساخته نشدهاند و بنابراین به سادگی دادهها را نادیده میگیرند.
تونی رودریگز، مدیر ارشد فناوری Digimarc به Engadget گفت: «قیاسی که ما در گذشته از آن استفاده کردهایم، شبیه به یک پاکت است. مانند یک پاکت، محتوای ارزشمندی که میخواهید ارسال کنید در داخل قرار میگیرد «و این جایی است که واترمارک مینشیند». این در واقع بخشی از پیکسل ها، صدا، هر رسانه ای است. فراداده، تمام آن اطلاعات دیگر، در قسمت بیرونی پاکت نامه نوشته شده است.
اگر کسی موفق به حذف واترمارک شود (معلوم شد، آنقدر سخت نیستفقط از تصویر اسکرین شات بگیرید و نماد را بردارید) اعتبارنامه ها را می توان دوباره از طریق آن وصل کرد تأیید کنید، که الگوریتم های بینایی ماشین را بر روی یک تصویر آپلود شده اجرا می کند تا مطابق با مخزن آن پیدا کند. اگر تصویر آپلود شده قابل شناسایی باشد، اعتبارنامه مجددا اعمال می شود. اگر کاربر با محتوای تصویر در طبیعت روبرو شود، میتواند اعتبار آن را با کلیک بر روی نماد CR بررسی کند تا مانیفست کامل را باز کند و اطلاعات را برای خود تأیید کند و تصمیم آگاهانهتری در مورد اینکه به چه محتوای آنلاین اعتماد کند، بگیرد.
Sickles این سیستمهای احراز هویت را تصور میکند که در لایههای هماهنگ عمل میکنند، مانند یک سیستم امنیتی خانه که قفلها و قفلها را با دوربینها و سنسورهای حرکت جفت میکند تا پوشش آن را افزایش دهد. سیکلز گفت: «این زیبایی اعتبارنامه محتوا و واترمارک در کنار هم است. «آنها به سیستمی بسیار بسیار قویتر بهعنوان پایهای برای اصالت و درک مشیت حول یک تصویر» نسبت به آنچه که به صورت جداگانه عمل میکنند، تبدیل میشوند.» Digimarc ابزار تشخیص واترمارک خود را آزادانه بین توسعهدهندگان هوش مصنوعی مولد توزیع میکند و استاندارد Content Credentials را در موجود خود ادغام میکند. تایید اعتبار پلت فرم محافظت از کپی آنلاین
در عمل، ما در حال حاضر شاهد گنجاندن این استاندارد در محصولات تجاری فیزیکی مانند Leica M11-P هستیم که به طور خودکار اعتبار CR را در هنگام گرفتن تصاویر به آنها اضافه می کند. این نیویورک تایمز دارد استفاده از آن را در تلاش های روزنامه نگاری بررسی کردرویترز از آن برای ویژگی جاه طلبانه ۷۶ روز استفاده کرد و مایکروسافت آن را به Bing Image Creator و Bing AI Chatbot نیز اضافه کرده است. طبق گزارش ها، سونی در تلاش است تا این استاندارد را در خود جای دهد دوربین های دیجیتال آلفا ۹ IIIبا فعال کردن بهروزرسانیهای میانافزار مدلهای Alpha 1 و Alpha 7S III که در سال ۲۰۲۴ وارد بازار میشوند. CR همچنین در مجموعه گسترده ابزارهای ویرایش عکس و ویدیوی Adobe از جمله Illustrator، Adobe Express، Stock و Behance در دسترس است. هوش مصنوعی مولد خود این شرکت، کرم شب تاببه طور خودکار اطلاعات غیرشخصی قابل شناسایی را در یک CR برای برخی از ویژگیها مانند پر کردن مولد (که اساساً توجه داشته باشید که ویژگی مولد استفاده شده است، اما نه توسط چه کسی) در یک CR گنجانده میشود، اما در غیر این صورت انتخاب خواهد شد.
با این اوصاف، استاندارد C2PA و اعتبار محتوای فرانتاند به سختی از توسعه خارج شدهاند و در حال حاضر یافتن آن در رسانههای اجتماعی بسیار دشوار است. سیکلز گفت: «من فکر میکنم که واقعاً به پذیرش گسترده این فناوریها و جایی که مورد استفاده قرار میگیرند مربوط میشود؛ هم از منظر پیوست کردن اعتبار محتوا و هم درج واترمارک برای پیوند آنها.
Nightshade: جایگزین CR که برای پایگاه های داده کشنده است
برخی از محققان امنیتی به اندازه کافی منتظر بوده اند تا قوانینی نوشته شود یا استانداردهای صنعتی ریشه دوانده و در عوض حفاظت از کپی را به دست خود گرفته اند. به عنوان مثال، تیمهایی از آزمایشگاه SAND دانشگاه شیکاگو، یک جفت سیستم حفاظت از کپیبرداری را برای استفاده خاص در برابر هوش مصنوعی مولد ایجاد کردهاند.
ژائو و تیمش Glaze را توسعه داده اند، سیستمی برای سازندگان که سبک تقلید یک هوش مصنوعی مولد را مختل می کند (با بهره برداری از مفهوم نمونه های متخاصم). این می تواند پیکسل ها را در یک اثر هنری خاص به گونه ای تغییر دهد که توسط چشم انسان غیرقابل تشخیص باشد اما به نظر کاملاً متفاوت با سیستم بینایی ماشین باشد. هنگامی که یک سیستم هوش مصنوعی مولد بر روی این تصاویر “لعاب دار” آموزش داده می شود، نمی تواند دقیقاً سبک مورد نظر هنری را تکرار کند – کوبیسم کارتونی می شود، سبک های انتزاعی به انیمیشن تبدیل می شوند. این می تواند یک نعمت باشد به هنرمندان سرشناس و اغلب تقلید شده به خصوص، در حفظ سبک های هنری برند خود از نظر تجاری ایمن.
در حالی که Glaze بر اقدامات پیشگیرانه برای منحرف کردن تلاشهای اطلاعات غیرقانونی تمرکز دارد، جدیدترین ابزار SAND Lab کاملاً مجازات است. دوبله شده شبگردسیستم بهطور نامحسوس پیکسلهای یک تصویر را تغییر میدهد، اما بهجای اشتباه گرفتن مدلهایی که با آنها آموزش داده شده است، مانند Glaze، تصویر مسموم پایگاهداده آموزشی را که به صورت عمدهفروشی مصرف میکند، خراب میکند، و توسعهدهندگان را مجبور میکند که به عقب برگردند و هر تصویر آسیبرسان را به صورت دستی حذف کنند. مشکل را حل کنید – در غیر این صورت سیستم به سادگی در مورد داده های بد آموزش می بیند و دوباره دچار همان مشکلات می شود.
این ابزار به عنوان “آخرین راه حل” برای سازندگان محتوا در نظر گرفته شده است، اما نمی تواند به عنوان یک بردار حمله استفاده شود. ژائو گفت: “این معادل قرار دادن سس تند در ناهار شماست، زیرا کسی مدام آن را از یخچال می دزدد.”
ژائو نسبت به صاحبان مدلهایی که Nightshade به آنها آسیب میزند، دلسوزی چندانی ندارد. او گفت: «شرکتهایی که عمداً فهرستهای انصراف را دور میزنند و دستورالعملهای نخراش را دور میزنند، میدانند که چه میکنند. هیچ دانلود تصادفی و آموزشی در مورد داده وجود ندارد. گرفتن محتوای یک نفر، دانلود آن و آموزش بر روی آن نیازمند تلاش زیاد و نیت کامل است.
این مقاله در ابتدا در Engadget در https://www.engadget.com/can-digital-watermarking-protect-us-from-generative-ai-184542396.html?src=rss منتشر شد
منبع: https://www.engadget.com/can-digital-watermarking-protect-us-from-generative-ai-184542396.html?src=rss