VentureBeat ارائه می دهد: AI Unleashed – یک رویداد اجرایی انحصاری برای رهبران داده های سازمانی. شبکه و یادگیری با همتایان صنعت. بیشتر بدانید
همانطور که بحث در اطراف داغ می شود استفاده از آثار دارای حق چاپ برای آموزش مدل های زبان بزرگ (LLM) مانند ChatGPT OpenAI، لاما ۲ متا، آنتروپیک کلود ۲یک سوال واضح مطرح میشود: آیا میتوان این مدلها را تغییر داد یا ویرایش کرد تا دانش آنها از چنین آثاری حذف شود، بدون اینکه به طور کامل آنها را بازآموزی کنیم یا دوباره معماری کنیم؟
در یک کاغذ جدید منتشر شده در سایت دسترسی باز و غیر همتا، arXiv.org، رونن الدان از مایکروسافت ریسرچ و مارک روسینوویچ از Microsoft Azure روش جدیدی را برای انجام این کار با پاک کردن اطلاعات خاص از یک نمونه LLM – یعنی تمام دانش پیشنهاد می کنند. وجود کتابهای هری پاتر (شامل شخصیتها و توطئهها) از منبع باز متا Llama 2-7B.
همانطور که محققان مایکروسافت می نویسند: “در حالی که این مدل بیش از ۱۸۴ هزار ساعت GPU برای پیش آموزش طول کشید، ما نشان می دهیم که در حدود ۱ ساعت GPU تنظیم دقیق، توانایی مدل برای تولید یا یادآوری محتوای مربوط به هری پاتر را به طور موثر پاک می کنیم.”
این کار گام مهمی به سوی مدلهای زبانی سازگار ارائه میکند. توانایی اصلاح هوش مصنوعی در طول زمان با توجه به تغییر نیازهای سازمانی، کلید استقرار طولانی مدت و ایمن برای سازمان است.
فرمول جادویی
“مدل های سنتی از [machine] نویسندگان می نویسند که یادگیری عمدتاً بر افزودن یا تقویت دانش از طریق تنظیم دقیق اولیه تمرکز دارد، اما مکانیسم های ساده ای برای «فراموش کردن» یا «لغو یادگیری» دانش ارائه نمی دهد.
چگونه بر این امر غلبه کردند؟ آنها یک تکنیک سه قسمتی را برای تخمین زدایی اطلاعات خاص در LLM توسعه دادند.
ابتدا، آنها مدلی را بر روی دادههای هدف (کتابهای هری پاتر) آموزش دادند تا با مقایسه پیشبینیها با یک مدل پایه، نشانههای مرتبط با آن را شناسایی کنند.
دوم، آنها عبارات منحصر به فرد هری پاتر را با همتایان عمومی جایگزین کردند و پیشبینیهای جایگزینی را تولید کردند که یک مدل را بدون آن آموزش تقریبی میکرد.
سوم، آنها مدل پایه را بر روی این پیشبینیهای جایگزین بهخوبی تنظیم کردند، و بهطور مؤثری متن اصلی را در صورت درخواست با متن، از حافظه آن پاک کردند.
برای ارزیابی، آنها توانایی مدل را برای تولید یا بحث در مورد محتوای هری پاتر با استفاده از ۳۰۰ دستور تولید خودکار، و همچنین با بازرسی احتمالات توکن، آزمایش کردند. همانطور که الدان و روسینوویچ بیان می کنند، “تا جایی که ما می دانیم، این اولین مقاله ای است که یک تکنیک موثر برای یادگیری در مدل های زبان مولد ارائه می دهد.”
آنها دریافتند که در حالی که مدل اصلی به راحتی می تواند جزئیات طرح هری پاتر پیچیده را مورد بحث قرار دهد، اما تنها پس از یک ساعت تنظیم دقیق تکنیک آنها، “این امکان وجود دارد که مدل اساساً روایت های پیچیده مجموعه هری پاتر را “فراموش کند”. عملکرد در معیارهای استاندارد مانند ARC، BoolQ و Winogrande “تقریباً بیتأثیر باقی میماند.”
انتظارات پرطرفدار
همانطور که نویسندگان خاطرنشان میکنند، با توجه به محدودیتهای رویکرد ارزیابی آنها، همچنان به آزمایشهای بیشتری نیاز است. تکنیک آنها همچنین ممکن است برای متون داستانی مؤثرتر از غیرداستانی باشد، زیرا جهان های داستانی حاوی ارجاعات منحصر به فرد بیشتری هستند.
با این وجود، این اثبات مفهوم “گامی اساسی برای ایجاد LLMهای مسئول، سازگارتر، و سازگارتر از نظر قانونی در آینده” ارائه می دهد. همانطور که نویسندگان نتیجه میگیرند، اصلاح بیشتر میتواند به پرداختن به «دستورالعملهای اخلاقی، ارزشهای اجتماعی یا الزامات خاص کاربر» کمک کند.
نویسندگان در جمع بندی یافته های خود اظهار می دارند: “تکنیک ما شروع امیدوارکننده ای را ارائه می دهد، اما کاربرد آن در انواع مختلف محتوا باید به طور کامل آزمایش شود. رویکرد ارائه شده پایه ای را ارائه می دهد، اما تحقیقات بیشتری برای پالایش و گسترش روش برای گسترده تر مورد نیاز است. حذف وظایف در LLM.”
با حرکت رو به جلو، تکنیکهای کلیتر و قویتر برای فراموشی انتخابی میتواند به اطمینان حاصل شود که سیستمهای هوش مصنوعی به صورت پویا با اولویتها، کسبوکار یا اجتماعی همسو میشوند، زیرا نیازها در طول زمان تغییر میکنند.
ماموریت VentureBeat این است که یک میدان شهر دیجیتال برای تصمیم گیرندگان فنی باشد تا دانشی در مورد فناوری سازمانی متحول کننده کسب کنند و معامله کنند. جلسات توجیهی ما را کشف کنید.
منبع: https://venturebeat.com/ai/researchers-turn-to-harry-potter-to-make-ai-forget-about-copyright-material/