آیا آماده اید تا آگاهی بیشتری را به برند خود بیاورید؟ در نظر بگیرید که برای تور AI Impact Tour اسپانسر شوید. درباره فرصت ها بیشتر بدانید اینجا.
اعتبارسنجی بیشتر اینکه چقدر امنیت مدلهای هوش مصنوعی مولد و پلتفرمهای آنها ضعیف است، امنیت کمند کمک کرد صورت در آغوش گرفته با کشف آن ۱۶۸۱ از یک حمله بالقوه ویرانگر اجتناب کنید توکن های API در معرض خطر قرار گرفتن بودند. این توکن ها توسط محققان Lasso که اخیراً اسکن کرده اند، کشف شدند GitHub و مخازن Hugging Face و تحقیقات عمیق در هر یک انجام دادند.
محققان با موفقیت به حساب های ۷۲۳ سازمان از جمله Meta، Hugging Face، Microsoft، Google، VMware و بسیاری دیگر دسترسی پیدا کردند. از این حسابها، ۶۵۵ توکن کاربر دارای مجوز نوشتن بودند. محققان Lasso همچنین دریافتند که ۷۷ دارای مجوز کتبی بودند که کنترل کاملی بر مخازن چندین شرکت برجسته می داد. محققان همچنین دسترسی کامل به شکوفه، لاما ۲و پیتیا مخازن، نشان می دهد که چگونه میلیون ها کاربر به طور بالقوه در معرض خطر حملات زنجیره تامین قرار دارند.
محققان Lasso در پاسخ به سؤالات VentureBeat نوشتند: «قابل توجه، تحقیقات ما منجر به فاش شدن یک نقض قابل توجه در زیرساخت زنجیره تأمین شد و حسابهای پرمخاطب متا را فاش کرد. وی افزود: “شدت وضعیت نمی تواند اغراق آمیز باشد. با کنترل سازمانی که میلیون ها بار دانلود می کند، ما اکنون توانایی دستکاری مدل های موجود را داریم و به طور بالقوه آنها را به موجودیت های مخرب تبدیل می کنیم. این نشان دهنده یک تهدید جدی است، زیرا تزریق مدل های خراب می تواند تیم تحقیقاتی Lasso ادامه داد، میلیونها کاربر را تحت تأثیر قرار میدهد که برای برنامههای خود به این مدلهای اساسی اعتماد میکنند.
در آغوش گرفتن صورت یک هدف پرمخاطب است
Hugging Face برای هر سازمانی که در حال توسعه LLM است، ضروری است، به طوری که امروزه بیش از ۵۰۰۰۰ سازمان به عنوان بخشی از تلاشهای توسعهدهنده خود به آنها متکی هستند. آنها برای هر سازمانی که LLM را توسعه میدهد و برنامههای توسعهدهنده هوش مصنوعی را دنبال میکند، بستر مناسبی هستند.
کتابخانه Hugging Face Transformers که به عنوان منبع و مخزن قطعی برای توسعهدهندگان، تیمهای توسعهدهنده و تمرینکنندگان مدل زبان بزرگ (LLM) خدمت میکند. ۵۰۰۰۰۰ مدل هوش مصنوعی و ۲۵۰۰۰۰ مجموعه داده.
دلیل دیگری که چرا Hugging Face به سرعت در حال رشد است، محبوبیت منبع باز بودن کتابخانه Transformers آن است. تیمهای Devops به VentureBeat میگویند که همکاری و اشتراک دانش در یک پلتفرم منبع باز، توسعه مدل LLM را تسریع میکند و منجر به احتمال بالاتری برای تولید مدلها میشود.
مهاجمانی که به دنبال سرمایهگذاری بر روی آسیبپذیریهای زنجیره تامین LLM و هوش مصنوعی، امکان مسموم کردن دادههای آموزشی، یا استخراج مدلها و دادههای آموزشی مدل هستند، Hugging Face را به عنوان هدف عالی میدانند. شناسایی و ریشه کن کردن حمله زنجیره تامین به Huggy Face به همان اندازه دشوار است Log4J ثابت کرده است.
Lasso Security به شهود آنها اعتماد دارد
با شتاب گرفتن Hugging Face به عنوان یکی از پلتفرمها و کتابخانههای پیشرو توسعه LLM، محققان Lasso میخواستند بینش عمیقتری در مورد رجیستری آن و نحوه مدیریت امنیت توکن API بدست آورند. در نوامبر ۲۰۲۳، محققان روش امنیتی Hugging Face را بررسی کردند. آنها راههای مختلفی را برای یافتن توکنهای API در معرض کاوش کردند و فهمیدند که میتواند منجر به بهرهبرداری از سه مورد جدید شود. ۱۰ OWASP برتر برای مدل های زبان بزرگ (LLM) خطرات نوظهور شامل:
آسیب پذیری های زنجیره تامین. Lasso دریافت که چرخه حیات برنامه LLM می تواند به راحتی توسط مؤلفه ها یا خدمات آسیب پذیر در معرض خطر قرار گیرد و منجر به حملات امنیتی شود. محققان همچنین دریافتند که استفاده از مجموعه داده های شخص ثالث، مدل های از پیش آموزش دیده و افزونه ها به آسیب پذیری ها می افزاید.
مسمومیت داده های آموزشی محققان دریافتند که مهاجمان میتوانند دادههای آموزشی LLM را از طریق توکنهای API در معرض خطر قرار دهند. دادههای آموزشی مسمومسازی آسیبپذیریها یا سوگیریهایی را معرفی میکند که میتواند LLM را به خطر بیندازد و امنیت، اثربخشی یا رفتار اخلاقی را مدل کند.
تهدید واقعی سرقت مدل طبق گفته تیم تحقیقاتی Lasso، توکنهای API در معرض خطر به سرعت برای دستیابی به دسترسی غیرمجاز، کپی کردن یا نفوذ به مدلهای اختصاصی LLM استفاده میشوند. یک مدیرعامل استارت آپی که مدل کسب و کارش کاملاً به یک پلتفرم میزبان AWS متکی است، به VentureBeat گفت که برای آموزش مدل ها به طور متوسط ماهیانه ۶۵۰۰۰ تا ۷۵۰۰۰ دلار هزینه محاسباتی هزینه دارد. نمونه های AWS ECS.
محققان Lasso گزارش دادند که آنها این فرصت را داشتند که بیش از ده هزار مدل خصوصی مرتبط با بیش از ۲۵۰۰ مجموعه داده را “دزدیدن” کنند. سرقت مدل دارای یک موضوع در ۱۰ برتر جدید OWASP برای LLM است. محققان Lasso ادعا میکنند که بر اساس آزمایش صورت در آغوش گرفتن، عنوان باید از «دزدی مدل» به «دزدی منابع هوش مصنوعی (مدلها و مجموعههای داده)» تغییر کند.
وی افزود: “شدت وضعیت نمی تواند اغراق آمیز باشد. با کنترل سازمانی که میلیون ها بار دانلود می کند، ما اکنون توانایی دستکاری مدل های موجود را داریم و به طور بالقوه آنها را به موجودیت های مخرب تبدیل می کنیم. این نشان دهنده یک تهدید جدی است، زیرا تزریق مدل های خراب می تواند تیم تحقیقاتی Lasso Security در مصاحبه اخیر با VentureBeat گفت که میلیونها کاربر را تحت تأثیر قرار میدهد که به این مدلهای اساسی برای برنامههای خود متکی هستند.
غذای آماده: با توکن های API مانند هویت رفتار کنید
خطر در آغوش گرفتن صورت از یک رخنه عظیم که برای ماه ها یا سال ها کشف آن چالش برانگیز بود، نشان می دهد که این شیوه ها برای محافظت از LLM و پلتفرم های توسعه هوش مصنوعی چقدر پیچیده و نوپا هستند.
بار لانیادو، محقق امنیتی در امنیت کمندطی مصاحبه اخیر خود به VentureBeat گفت: «توصیه میکنیم که HuggingFace دائماً توکنهای API در معرض دید عموم را اسکن کند و آنها را باطل کند، یا به کاربران و سازمانها در مورد توکنهای افشا شده اطلاع دهد».
لانیادو ادامه داد، و توصیه کرد که “روش مشابهی توسط GitHub پیاده سازی شده است، که توکن OAuth، توکن برنامه GitHub یا نشانه دسترسی شخصی را زمانی که به یک مخزن عمومی یا خلاصه عمومی فشار داده می شود، باطل می کند.” به توسعهدهندگان همکار، توصیه میکنیم از کار با توکنهای کدگذاری سخت خودداری کنند و بهترین شیوهها را دنبال کنند. انجام این کار به شما کمک می کند تا از تأیید مداوم هر تعهدی که هیچ توکن یا اطلاعات حساسی به مخازن داده نمی شود، اجتناب کنید.
به هیچ اعتمادی در جهان توکن API فکر نکنید
مدیریت موثرتر توکنهای API باید با نحوه ایجاد آنها توسط Hugging Face شروع شود و اطمینان حاصل شود که هر کدام در طول ایجاد هویت منحصربهفرد و تأیید اعتبار هستند. استفاده از احراز هویت چند عاملی یک امر داده شده است.
احراز هویت مداوم برای اطمینان از دستیابی به حداقل امتیاز، همراه با اعتبارسنجی مداوم هر هویت تنها با استفاده از منابعی که به آنها دسترسی دارد، نیز ضروری است. تمرکز بیشتر بر مدیریت چرخه حیات هر توکن و خودکارسازی مدیریت هویت در مقیاس نیز کمک خواهد کرد. همه عوامل فوق، هسته اصلی Hugging Face هستند که روی یک چشم انداز اعتماد صفر برای توکن های API خود وارد می شوند.
هوشیاری بیشتر در دنیای بدون اعتماد کافی نیست
همانطور که تیم تحقیقاتی Lasso Security نشان میدهد، هنگام ایمن کردن هزاران توکن API، که امروزه بسیاری از پیشرفتهترین شرکتهای فناوری جهان، کلیدهای پادشاهی LLM هستند، احتیاط بیشتری انجام نمیشود.
Hagging Face که از یک گلوله حادثه سایبری طفره می رود نشان می دهد که چرا مدیریت وضعیت بدن و دوبرابر کردن مداوم حداقل دسترسی ممتاز تا سطح توکن API مورد نیاز است. مهاجمان یک گسست شکاف بین هویتها، نقاط پایانی و هر شکلی از احراز هویت، از جمله نشانهها، میدانند.
تحقیقات Lasso که امروز منتشر شد نشان میدهد که چرا هر سازمانی باید هر commit (در GitHub) را تأیید کند تا مطمئن شود هیچ توکن یا اطلاعات حساسی به مخازن منتقل نمیشود و راهحلهای امنیتی را که به طور خاص برای محافظت از مدلهای متحول طراحی شدهاند، پیادهسازی میکنند. همه اینها به ایجاد یک ذهنیت نقض شده و قرار دادن نرده های محافظ قوی تر برای تقویت جایگاه های امنیتی کل سازمان در هر سطح تهدید بالقوه یا بردار حمله مربوط می شود.
ماموریت VentureBeat این است که یک میدان شهر دیجیتال برای تصمیم گیرندگان فنی باشد تا دانشی در مورد فناوری سازمانی متحول کننده کسب کنند و معامله کنند. جلسات توجیهی ما را کشف کنید.
منبع: https://venturebeat.com/security/hugging-face-dodged-a-cyber-bullet-with-lasso-securitys-help/