Hugging Face با کمک Lasso Security از یک گلوله سایبری فرار کرد

آیا آماده اید تا آگاهی بیشتری را به برند خود بیاورید؟ در نظر بگیرید که برای تور AI Impact Tour اسپانسر شوید. درباره فرصت ها بیشتر بدانید اینجا.


اعتبارسنجی بیشتر اینکه چقدر امنیت مدل‌های هوش مصنوعی مولد و پلتفرم‌های آن‌ها ضعیف است، امنیت کمند کمک کرد صورت در آغوش گرفته با کشف آن ۱۶۸۱ از یک حمله بالقوه ویرانگر اجتناب کنید توکن های API در معرض خطر قرار گرفتن بودند. این توکن ها توسط محققان Lasso که اخیراً اسکن کرده اند، کشف شدند GitHub و مخازن Hugging Face و تحقیقات عمیق در هر یک انجام دادند.

محققان با موفقیت به حساب های ۷۲۳ سازمان از جمله Meta، Hugging Face، Microsoft، Google، VMware و بسیاری دیگر دسترسی پیدا کردند. از این حساب‌ها، ۶۵۵ توکن کاربر دارای مجوز نوشتن بودند. محققان Lasso همچنین دریافتند که ۷۷ دارای مجوز کتبی بودند که کنترل کاملی بر مخازن چندین شرکت برجسته می داد. محققان همچنین دسترسی کامل به شکوفه، لاما ۲و پیتیا مخازن، نشان می دهد که چگونه میلیون ها کاربر به طور بالقوه در معرض خطر حملات زنجیره تامین قرار دارند.

محققان Lasso در پاسخ به سؤالات VentureBeat نوشتند: «قابل توجه، تحقیقات ما منجر به فاش شدن یک نقض قابل توجه در زیرساخت زنجیره تأمین شد و حساب‌های پرمخاطب متا را فاش کرد. وی افزود: “شدت وضعیت نمی تواند اغراق آمیز باشد. با کنترل سازمانی که میلیون ها بار دانلود می کند، ما اکنون توانایی دستکاری مدل های موجود را داریم و به طور بالقوه آنها را به موجودیت های مخرب تبدیل می کنیم. این نشان دهنده یک تهدید جدی است، زیرا تزریق مدل های خراب می تواند تیم تحقیقاتی Lasso ادامه داد، میلیون‌ها کاربر را تحت تأثیر قرار می‌دهد که برای برنامه‌های خود به این مدل‌های اساسی اعتماد می‌کنند.

در آغوش گرفتن صورت یک هدف پرمخاطب است

Hugging Face برای هر سازمانی که در حال توسعه LLM است، ضروری است، به طوری که امروزه بیش از ۵۰۰۰۰ سازمان به عنوان بخشی از تلاش‌های توسعه‌دهنده خود به آن‌ها متکی هستند. آنها برای هر سازمانی که LLM را توسعه می‌دهد و برنامه‌های توسعه‌دهنده هوش مصنوعی را دنبال می‌کند، بستر مناسبی هستند.

رویداد VB

تور AI Impact Tour

در تور AI Impact VentureBeat که به شهر نزدیک شما می آید، با جامعه هوش مصنوعی سازمانی ارتباط برقرار کنید!

بیشتر بدانید

کتابخانه Hugging Face Transformers که به عنوان منبع و مخزن قطعی برای توسعه‌دهندگان، تیم‌های توسعه‌دهنده و تمرین‌کنندگان مدل زبان بزرگ (LLM) خدمت می‌کند. ۵۰۰۰۰۰ مدل هوش مصنوعی و ۲۵۰۰۰۰ مجموعه داده.

دلیل دیگری که چرا Hugging Face به سرعت در حال رشد است، محبوبیت منبع باز بودن کتابخانه Transformers آن است. تیم‌های Devops به VentureBeat می‌گویند که همکاری و اشتراک دانش در یک پلت‌فرم منبع باز، توسعه مدل LLM را تسریع می‌کند و منجر به احتمال بالاتری برای تولید مدل‌ها می‌شود.

مهاجمانی که به دنبال سرمایه‌گذاری بر روی آسیب‌پذیری‌های زنجیره تامین LLM و هوش مصنوعی، امکان مسموم کردن داده‌های آموزشی، یا استخراج مدل‌ها و داده‌های آموزشی مدل هستند، Hugging Face را به عنوان هدف عالی می‌دانند. شناسایی و ریشه کن کردن حمله زنجیره تامین به Huggy Face به همان اندازه دشوار است Log4J ثابت کرده است.

Lasso Security به شهود آنها اعتماد دارد

با شتاب گرفتن Hugging Face به عنوان یکی از پلتفرم‌ها و کتابخانه‌های پیشرو توسعه LLM، محققان Lasso می‌خواستند بینش عمیق‌تری در مورد رجیستری آن و نحوه مدیریت امنیت توکن API بدست آورند. در نوامبر ۲۰۲۳، محققان روش امنیتی Hugging Face را بررسی کردند. آن‌ها راه‌های مختلفی را برای یافتن توکن‌های API در معرض کاوش کردند و فهمیدند که می‌تواند منجر به بهره‌برداری از سه مورد جدید شود. ۱۰ OWASP برتر برای مدل های زبان بزرگ (LLM) خطرات نوظهور شامل:

آسیب پذیری های زنجیره تامین. Lasso دریافت که چرخه حیات برنامه LLM می تواند به راحتی توسط مؤلفه ها یا خدمات آسیب پذیر در معرض خطر قرار گیرد و منجر به حملات امنیتی شود. محققان همچنین دریافتند که استفاده از مجموعه داده های شخص ثالث، مدل های از پیش آموزش دیده و افزونه ها به آسیب پذیری ها می افزاید.

مسمومیت داده های آموزشی محققان دریافتند که مهاجمان می‌توانند داده‌های آموزشی LLM را از طریق توکن‌های API در معرض خطر قرار دهند. داده‌های آموزشی مسموم‌سازی آسیب‌پذیری‌ها یا سوگیری‌هایی را معرفی می‌کند که می‌تواند LLM را به خطر بیندازد و امنیت، اثربخشی یا رفتار اخلاقی را مدل کند.

تهدید واقعی سرقت مدل طبق گفته تیم تحقیقاتی Lasso، توکن‌های API در معرض خطر به سرعت برای دستیابی به دسترسی غیرمجاز، کپی کردن یا نفوذ به مدل‌های اختصاصی LLM استفاده می‌شوند. یک مدیرعامل استارت آپی که مدل کسب و کارش کاملاً به یک پلتفرم میزبان AWS متکی است، به VentureBeat گفت که برای آموزش مدل ها به طور متوسط ​​ماهیانه ۶۵۰۰۰ تا ۷۵۰۰۰ دلار هزینه محاسباتی هزینه دارد. نمونه های AWS ECS.

محققان Lasso گزارش دادند که آنها این فرصت را داشتند که بیش از ده هزار مدل خصوصی مرتبط با بیش از ۲۵۰۰ مجموعه داده را “دزدیدن” کنند. سرقت مدل دارای یک موضوع در ۱۰ برتر جدید OWASP برای LLM است. محققان Lasso ادعا می‌کنند که بر اساس آزمایش صورت در آغوش گرفتن، عنوان باید از «دزدی مدل» به «دزدی منابع هوش مصنوعی (مدل‌ها و مجموعه‌های داده)» تغییر کند.

وی افزود: “شدت وضعیت نمی تواند اغراق آمیز باشد. با کنترل سازمانی که میلیون ها بار دانلود می کند، ما اکنون توانایی دستکاری مدل های موجود را داریم و به طور بالقوه آنها را به موجودیت های مخرب تبدیل می کنیم. این نشان دهنده یک تهدید جدی است، زیرا تزریق مدل های خراب می تواند تیم تحقیقاتی Lasso Security در مصاحبه اخیر با VentureBeat گفت که میلیون‌ها کاربر را تحت تأثیر قرار می‌دهد که به این مدل‌های اساسی برای برنامه‌های خود متکی هستند.

غذای آماده: با توکن های API مانند هویت رفتار کنید

خطر در آغوش گرفتن صورت از یک رخنه عظیم که برای ماه ها یا سال ها کشف آن چالش برانگیز بود، نشان می دهد که این شیوه ها برای محافظت از LLM و پلتفرم های توسعه هوش مصنوعی چقدر پیچیده و نوپا هستند.

بار لانیادو، محقق امنیتی در امنیت کمندطی مصاحبه اخیر خود به VentureBeat گفت: «توصیه می‌کنیم که HuggingFace دائماً توکن‌های API در معرض دید عموم را اسکن کند و آنها را باطل کند، یا به کاربران و سازمان‌ها در مورد توکن‌های افشا شده اطلاع دهد».

لانیادو ادامه داد، و توصیه کرد که “روش مشابهی توسط GitHub پیاده سازی شده است، که توکن OAuth، توکن برنامه GitHub یا نشانه دسترسی شخصی را زمانی که به یک مخزن عمومی یا خلاصه عمومی فشار داده می شود، باطل می کند.” به توسعه‌دهندگان همکار، توصیه می‌کنیم از کار با توکن‌های کدگذاری سخت خودداری کنند و بهترین شیوه‌ها را دنبال کنند. انجام این کار به شما کمک می کند تا از تأیید مداوم هر تعهدی که هیچ توکن یا اطلاعات حساسی به مخازن داده نمی شود، اجتناب کنید.

به هیچ اعتمادی در جهان توکن API فکر نکنید

مدیریت موثرتر توکن‌های API باید با نحوه ایجاد آن‌ها توسط Hugging Face شروع شود و اطمینان حاصل شود که هر کدام در طول ایجاد هویت منحصربه‌فرد و تأیید اعتبار هستند. استفاده از احراز هویت چند عاملی یک امر داده شده است.

احراز هویت مداوم برای اطمینان از دستیابی به حداقل امتیاز، همراه با اعتبارسنجی مداوم هر هویت تنها با استفاده از منابعی که به آنها دسترسی دارد، نیز ضروری است. تمرکز بیشتر بر مدیریت چرخه حیات هر توکن و خودکارسازی مدیریت هویت در مقیاس نیز کمک خواهد کرد. همه عوامل فوق، هسته اصلی Hugging Face هستند که روی یک چشم انداز اعتماد صفر برای توکن های API خود وارد می شوند.

هوشیاری بیشتر در دنیای بدون اعتماد کافی نیست

همانطور که تیم تحقیقاتی Lasso Security نشان می‌دهد، هنگام ایمن کردن هزاران توکن API، که امروزه بسیاری از پیشرفته‌ترین شرکت‌های فناوری جهان، کلیدهای پادشاهی LLM هستند، احتیاط بیشتری انجام نمی‌شود.

Hagging Face که از یک گلوله حادثه سایبری طفره می رود نشان می دهد که چرا مدیریت وضعیت بدن و دوبرابر کردن مداوم حداقل دسترسی ممتاز تا سطح توکن API مورد نیاز است. مهاجمان یک گسست شکاف بین هویت‌ها، نقاط پایانی و هر شکلی از احراز هویت، از جمله نشانه‌ها، می‌دانند.

تحقیقات Lasso که امروز منتشر شد نشان می‌دهد که چرا هر سازمانی باید هر commit (در GitHub) را تأیید کند تا مطمئن شود هیچ توکن یا اطلاعات حساسی به مخازن منتقل نمی‌شود و راه‌حل‌های امنیتی را که به طور خاص برای محافظت از مدل‌های متحول طراحی شده‌اند، پیاده‌سازی می‌کنند. همه اینها به ایجاد یک ذهنیت نقض شده و قرار دادن نرده های محافظ قوی تر برای تقویت جایگاه های امنیتی کل سازمان در هر سطح تهدید بالقوه یا بردار حمله مربوط می شود.

ماموریت VentureBeat این است که یک میدان شهر دیجیتال برای تصمیم گیرندگان فنی باشد تا دانشی در مورد فناوری سازمانی متحول کننده کسب کنند و معامله کنند. جلسات توجیهی ما را کشف کنید.


منبع: https://venturebeat.com/security/hugging-face-dodged-a-cyber-bullet-with-lasso-securitys-help/

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *