برنامه های کاربردی هوش مصنوعی سازمانی امنیت را تهدید می کند

در طول سال گذشته، هوش مصنوعی تبدیل شده است بهره وری ابزار، به طور بالقوه انقلابی در صنایع در سراسر هیئت مدیره. هوش مصنوعی برنامه های کاربردیمانند ChatGPT و Google Bard در حال تبدیل شدن به ابزارهای رایج در فضای سازمانی برای ساده کردن عملیات و افزایش تصمیم گیری هستند. با این حال، افزایش شدید محبوبیت هوش مصنوعی مجموعه جدیدی از هوش مصنوعی را به همراه دارد امنیت خطراتی که سازمان ها باید با آنها دست و پنجه نرم کنند تا از نقض پرهزینه داده ها جلوگیری کنند.

جذب سریع هوش مصنوعی مولد

تنها دو ماه پس از راه‌اندازی آن در عرصه عمومی، ChatGPT با استفاده از فناوری هوش مصنوعی مولد برای پاسخ به درخواست‌ها و کمک به نیازهای کاربر، به سریع‌ترین برنامه کاربردی متمرکز بر مصرف‌کننده در تاریخ تبدیل شد. با مجموعه ای از مزایا که در نهایت فرآیندها را برای فرد ساده می کند – پیشنهاد دستور العمل ها، نوشتن کتیبه های تولد و عمل به عنوان یک دانشنامه دانش – کاربرد گسترده تر ChatGPT و مزایای آن برای محل کار به سرعت شناسایی شد. امروزه، بسیاری از کارمندان در دفاتر در سراسر جهان به سیستم‌های هوش مصنوعی مولد برای کمک به پیش‌نویس ایمیل‌ها، پیشنهاد فراخوان‌ها برای اقدام و خلاصه‌سازی تکیه می‌کنند. اسناد. گزارش اخیر Cloud and Threat Netskope نشان داد که هوش مصنوعی برنامه استفاده از شرکت ها در سراسر جهان به طور تصاعدی در حال افزایش است و ۲۲٫۵ درصد نسبت به ماه می و ژوئن ۲۰۲۳ رشد می کند. با این نرخ رشد فعلی، محبوبیت این برنامه ها تا سال ۲۰۲۴ دو برابر خواهد شد. هانی پات هکرها

هانی پات هکر

یک نظرسنجی آنلاین رویترز و ایپسوس نشان داد که از ۲۶۲۵ بزرگسال آمریکایی، ۲۸ درصد از کارگران از ابزارهای مولد هوش مصنوعی استفاده کرده اند و به طور منظم از ChatGPT در طول روز کاری استفاده می کنند. متأسفانه، ChatGPT پس از اثبات خود به عنوان یک ابزار زیرک برای تصحیح اسناد و بررسی کد برای خطاها، تبدیل به یک نقطه در معرض دید برای اطلاعات حساس شده است. کارمندان محتوای محرمانه شرکت را برش داده و در پلتفرم قرار دهید. نادیده گرفتن مقدار زیادی از اطلاعات حساسی که روی سیستم‌های هوش مصنوعی مولد جمع می‌شوند، سخت است. مطالعه اخیر لایه X بر روی ۱۰۰۰۰ کارمند نشان داد که یک چهارم تمام اطلاعاتی که در ChatGPT به اشتراک گذاشته می شود حساس تلقی می شود.

با ورود ۱٫۴۳ میلیارد نفر به ChatGPT در ماه آگوست، جای تعجب نیست که تبلیغات و محبوبیت آن برای بازیگران مخرب جذاب باشد، زیرا به دنبال استفاده از LLM ها برای رسیدن به اهداف مخرب خود و همچنین سوء استفاده از هیاهوی اطراف LLM برای هدف قرار دادن قربانیان خود هستند.

رهبران کسب و کار در حال تلاش برای یافتن راهی برای استفاده ایمن و ایمن از برنامه های هوش مصنوعی شخص ثالث هستند. در اوایل سال جاری، JPMorgan دسترسی به ChatGPT را به دلیل همسویی نادرست خود با خط مشی شرکت مسدود کرد و اپل نیز پس از افشای برنامه های خود برای ایجاد مدل خود، همین مسیر را در پیش گرفت. شرکت‌های دیگری مانند مایکروسافت صرفاً به کارکنان توصیه کرده‌اند که اطلاعات محرمانه را با این پلتفرم به اشتراک نگذارند. هنوز هیچ توصیه نظارتی قوی یا بهترین روش برای استفاده از هوش مصنوعی مولد وجود ندارد، که نگران‌کننده‌ترین پیامد آن این است که ۲۵ درصد از کارگران ایالات متحده نمی‌دانند که آیا شرکت آنها به ChatGPT اجازه می‌دهد یا خیر.

انواع مختلفی از اطلاعات حساس در حال بارگذاری در برنامه های کاربردی هوش مصنوعی در محل کار هستند. به گفته نتسکوپ، متداول ترین اطلاعات بارگذاری شده کد منبع است، متن اصلی که عملکرد یک برنامه کامپیوتری و معمولاً مالکیت معنوی شرکت را کنترل می کند.

توانایی عجیب ChatGPT در بررسی، توضیح و حتی آموزش کاربران در زمینه کدنویسی پیچیده، این روند را تعجب‌آور نمی‌کند. با این حال، آپلود کد منبع در این پلتفرم‌ها یک فعالیت پرخطر است و می‌تواند منجر به افشای اسرار تجاری جدی شود. سامسونگ در آوریل امسال دقیقاً با این مشکل مواجه شد که یکی از مهندسان آن از ChatGPT برای بررسی کد منبع برای خطاها استفاده کرد که منجر به ممنوعیت کامل ChatGPT در سراسر شرکت شد.

کلاهبرداری های رایج

حذف هوش مصنوعی مولد از شبکه های شرکت خطرات خاص خود را دارد. در این سناریو، کاربران تشویق می شوند تا از برنامه های “سایه” شخص ثالث (که برای استفاده ایمن توسط کارفرما تایید نشده اند) برای ساده کردن گردش کار خود استفاده کنند. با توجه به این روند، تعداد فزاینده‌ای از کمپین‌های فیشینگ و کمپین‌های توزیع بدافزار به صورت آنلاین پیدا شده‌اند که به دنبال کسب سود از تبلیغات مولد هوش مصنوعی هستند. در این نوع کمپین ها، وب سایت ها و پروکسی ها خود را به عنوان ارائه دسترسی رایگان و بدون احراز هویت به ربات چت مبدل می کنند. در واقع، تمام ورودی های کاربر برای اپراتور پروکسی قابل دسترسی هستند و برای حملات بعدی جمع آوری می شوند.

ایمن سازی محل کار

خوشبختانه برای شرکت‌ها، یک راه میانه جایگزین وجود دارد تا امکان پذیرش هوش مصنوعی در محیط کار با محیط‌های ایمنی را فراهم کند، و این شامل ترکیبی از ابر آموزش کنترل دسترسی و آگاهی کاربر.

اول، الف پیشگیری از از دست دادن اطلاعات سیاست و ابزار باید برای شناسایی آپلودهایی که حاوی اطلاعات بالقوه حساس هستند، مانند کد منبع و مالکیت معنوی، اجرا شود. سپس می‌توان این کار را با مربیگری کاربر در زمان واقعی ترکیب کرد تا در صورت به نظر رسیدن عملی که احتمالاً خط‌مشی شرکت را نقض می‌کند، به کارکنان اطلاع داده شود، و به آنها فرصتی می‌دهد تا وضعیت را بررسی کنند و به طور مناسب پاسخ دهند.

برای کاهش خطر وب‌سایت‌های کلاهبرداری، شرکت‌ها باید ترافیک وب‌سایت و URL‌ها را اسکن کنند و کاربران را راهنمایی کنند تا حملات مبتنی بر برنامه‌های ابری و هوش مصنوعی را شناسایی کنند.

مؤثرترین راه برای اجرای تدابیر امنیتی شدید این است که مطمئن شوید فعالیت‌ها و روندهای برنامه هوش مصنوعی به طور منظم نظارت می‌شوند تا حیاتی‌ترین آسیب‌پذیری‌ها برای کسب‌وکار خاص شما شناسایی شود. امنیت نباید یک فکر بعدی باشد، و با مراقبت و توجه مناسب، هوش مصنوعی می‌تواند همچنان به عنوان یک نیروی خوب به سود شرکت ادامه دهد.

ما بهترین دوره آنلاین امنیت سایبری را ارائه کرده ایم.


منبع: https://www.techradar.com/pro/enterprise-ai-applications-are-threatening-security

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *