Lasso Security از مخفی کاری ظاهر می شود تا امنیت LLM را به چالش بکشد

آیا آماده اید تا آگاهی بیشتری را به برند خود بیاورید؟ در نظر بگیرید که برای تور AI Impact Tour اسپانسر شوید. درباره فرصت ها بیشتر بدانید اینجا.


برای چیزی بسیار پیچیده و مدل های زبانی بزرگ (LLMs) وقتی صحبت از امنیت سایبری می شود، می تواند کاملاً ساده لوحانه باشد.

به عنوان مثال، با مجموعه ای ساده و حیله گرانه از دستورات، آنها می توانند هزاران راز را رها کنند. یا می توان آنها را فریب داد تا بسته های کد مخرب ایجاد کنند. در همین حال، داده های مسموم به آنها تزریق می شود، در عین حال، می تواند منجر به سوگیری و رفتار غیراخلاقی شود.

الاد شولمن، یکی از بنیانگذاران و مدیر عامل شرکت: «به همان اندازه که قدرتمند هستند، نباید به LLM ها بدون انتقاد اعتماد کرد. کمند ثانیهurity، در مصاحبه ای اختصاصی با VentureBeat گفت. با توجه به قابلیت‌ها و پیچیدگی‌های پیشرفته‌شان، LLM‌ها در برابر نگرانی‌های امنیتی متعدد آسیب‌پذیر هستند.

شرکت شولمن هدفی دارد که این مشکلات سرسام آور را “کند” کند – این شرکت امروز از مخفی کاری با ۶ میلیون دلار بودجه اولیه راه اندازی شد. سرمایه ورودی با مشارکت از Samsung Next.
شولمن گفت: «انقلاب LLM احتمالاً بزرگتر از انقلاب ابری و انقلاب اینترنت است. با این پیشرفت بزرگ، خطرات بزرگی به همراه خواهد داشت، و شما نمی توانید خیلی زود به این موضوع رسیدگی کنید.

رویداد VB

تور تاثیر هوش مصنوعی

در تور AI Impact VentureBeat که به شهر نزدیک شما می آید، با جامعه هوش مصنوعی سازمانی ارتباط برقرار کنید!

بیشتر بدانید

فرار از زندان، قرار گرفتن در معرض ناخواسته، مسمومیت داده ها

LLMها یک فناوری پیشگامانه هستند که جهان را فراگرفته و به سرعت به عنوان شولمن به “دارایی غیرقابل مذاکره برای مشاغلی که در تلاش برای حفظ مزیت رقابتی هستند” تبدیل شده است.

این فناوری محاوره ای، بدون ساختار و موقعیتی است و استفاده و بهره برداری از آن را برای همه آسان می کند.

برای شروع، هنگامی که به روش صحیح دستکاری می شود – از طریق تزریق سریع یا جیلبریک – مدل‌ها می‌توانند داده‌های آموزشی، اطلاعات حساس سازمان و کاربران، الگوریتم‌های اختصاصی و سایر جزئیات محرمانه خود را آشکار کنند.

به طور مشابه، هنگامی که به طور ناخواسته به طور نادرست استفاده شود، کارگران می توانند اطلاعات شرکت را افشا کنند – همانطور که در مورد سامسونگکه در نهایت استفاده از ChatGPT و دیگر ابزارهای مولد هوش مصنوعی را به کلی ممنوع کرد.

شولمن گفت: «از آنجایی که محتوای تولید شده توسط LLM را می توان با ورودی سریع کنترل کرد، این همچنین می تواند منجر به دسترسی غیرمستقیم کاربران به عملکردهای اضافی از طریق مدل شود.

او توضیح داد که در همین حال، مسائل به دلیل «مسمومیت» داده‌ها یا زمانی که داده‌های آموزشی دستکاری می‌شوند، به وجود می‌آیند، بنابراین سوگیری ایجاد می‌شود که امنیت، اثربخشی یا رفتار اخلاقی را به خطر می‌اندازد. از سوی دیگر، مدیریت ناامن خروجی به دلیل اعتبار سنجی و بهداشت ناکافی خروجی ها قبل از اینکه به سایر اجزا، کاربران و سیستم ها منتقل شوند، است.

این آسیب‌پذیری زمانی رخ می‌دهد که خروجی LLM بدون بررسی دقیق پذیرفته شود و سیستم‌های باطن را آشکار کند. لیست ۱۰ تای برتر از انجمن آنلاین OWASP. استفاده نادرست ممکن است منجر به عواقب شدیدی مانند XSS، CSRF، SSRF، افزایش امتیاز یا اجرای کد از راه دور شود.

OWASP همچنین یک مدل انکار سرویس را شناسایی می‌کند که در آن مهاجمان LLM‌ها را با درخواست‌ها پر می‌کنند که منجر به تخریب یا حتی خاموش شدن سرویس می‌شود.

علاوه بر این، یک زنجیره تامین نرم‌افزار LLM ممکن است توسط مؤلفه‌ها یا خدمات آسیب‌پذیر مجموعه داده‌ها یا افزونه‌های شخص ثالث در معرض خطر قرار گیرد.

توسعه دهندگان: زیاد اعتماد نکنید

نگرانی خاص اتکای بیش از حد به یک مدل به عنوان تنها منبع اطلاعات است. به گفته کارشناسان، این می تواند نه تنها منجر به اطلاعات نادرست، بلکه به حوادث امنیتی بزرگ شود.

به عنوان مثال، در مورد “توهم بسته”، یک توسعه دهنده ممکن است بپرسد ChatGPT برای پیشنهاد یک بسته کد برای یک کار خاص. سپس این مدل ممکن است به طور ناخواسته پاسخی برای بسته ای که وجود ندارد (“توهم”) ارائه دهد.

سپس هکرها می‌توانند یک بسته کد مخرب را پر کنند که با بسته توهم مطابقت دارد. شولمن توضیح داد، هنگامی که یک توسعه دهنده آن کد را پیدا کرده و آن را وارد می کند، هکرها یک درب پشتی در سیستم های شرکت دارند.

او گفت: “این می تواند از اعتماد توسعه دهندگان به توصیه های ابزار مبتنی بر هوش مصنوعی سوء استفاده کند.”

رهگیری، نظارت بر تعاملات LLM

به زبان ساده، فناوری Lasso تعاملات با LLM ها را متوقف می کند.

این می تواند بین کارمندان و ابزارهایی مانند Bard یا ChatGPT باشد. عواملی مانند Grammarly که به سیستم های یک سازمان متصل هستند. پلاگین های مرتبط با IDE های توسعه دهندگان (مانند Copilot)؛ یا توابع باطن که تماس های API را انجام می دهند.

شولمن گفت که یک لایه مشاهده پذیری داده های ارسال شده و بازیابی شده از LLM ها و چندین لایه طبقه بندی کننده داده اهرمی تشخیص تهدید، پردازش زبان مادری و LLM های خود کمند را که برای شناسایی ناهنجاری ها آموزش دیده اند، می گیرد. اقدامات پاسخ – مسدود کردن یا صدور هشدارها – نیز اعمال می شود.

شولمن می‌گوید: «اصلی‌ترین توصیه این است که بفهمیم کدام ابزارهای LLM در سازمان، کارمندان یا برنامه‌ها استفاده می‌شوند. “به دنبال آن، درک کنید که چگونه از آنها استفاده می شود، و برای چه اهدافی. این دو اقدام به تنهایی یک بحث انتقادی را در مورد آنچه آنها می خواهند و آنچه را که باید محافظت کنند ایجاد می کند.”

با احترام کمند امنیت.

ویژگی های کلیدی این پلتفرم عبارتند از:

  • Shadow AI Discovery: کارشناسان امنیتی می توانند تشخیص دهند که چه ابزارها و مدل هایی فعال هستند، کاربران را شناسایی کرده و بینش به دست آورند.
  • نظارت و مشاهده پذیری جریان داده LLM: سیستم هر انتقال داده ورودی و خروجی به یک سازمان را ردیابی و ثبت می کند.
  • تشخیص و هشدار در زمان واقعی.
  • مسدود کردن و محافظت سرتاسر: تضمین می‌کند که درخواست‌ها و خروجی‌های ایجاد شده توسط کارمندان یا مدل‌ها با سیاست‌های امنیتی همسو می‌شوند.
  • داشبورد کاربر پسند

استفاده ایمن از فناوری پیشرفت

Lasso خود را متمایز می کند زیرا “یک ویژگی صرف نیست” یا یک ابزار امنیتی مانند پیشگیری از از دست دادن داده ها (DLP) با هدف موارد استفاده خاص است. شولمن گفت، در عوض، این مجموعه کاملی است که “بر دنیای LLM متمرکز شده است.”

تیم های امنیتی کنترل کاملی بر هر تعامل مرتبط با LLM در یک سازمان به دست می آورند و می توانند خط مشی هایی را برای گروه ها و کاربران مختلف ایجاد و اجرا کنند.

«سازمان‌ها باید پیشرفت را اتخاذ کنند، و باید آن‌ها را بپذیرند فناوری های LLMاما آنها باید این کار را به روشی امن و ایمن انجام دهند.”

او خاطرنشان کرد که مسدود کردن استفاده از فناوری پایدار نیست و شرکت‌هایی که از هوش مصنوعی ژنرال بدون برنامه ریسک اختصاصی استفاده نمی‌کنند آسیب خواهند دید.

شولمن گفت، هدف Lasso “تجهیز سازمان‌ها به جعبه ابزار امنیتی مناسب برای استقبال از پیشرفت، و استفاده از این فناوری واقعاً قابل توجه بدون به خطر انداختن موقعیت‌های امنیتی آنها است.”

ماموریت VentureBeat این است که یک میدان شهر دیجیتال برای تصمیم گیرندگان فنی باشد تا دانشی در مورد فناوری سازمانی متحول کننده کسب کنند و معامله کنند. جلسات توجیهی ما را کشف کنید.


منبع: https://venturebeat.com/ai/lasso-security-emerges-from-stealth-to-wrangle-llm-security/

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *