فارستر پیش‌بینی می‌کند که نقص کدهای هوش مصنوعی، حملات جدید را در سال آینده فعال می‌کند

VentureBeat ارائه می دهد: AI Unleashed – یک رویداد اجرایی انحصاری برای رهبران داده های سازمانی. در ۱۵ نوامبر از رهبران برتر صنعت بشنوید. پاس رایگان خود را رزرو کنید


تیم‌های DevOps بیشتر به دستیاران کدنویسی هوش مصنوعی متکی هستند تا بهره‌وری تیم را با خودکارسازی وظایف کدنویسی با فقط با وجدان‌ترین اسکن کد نهایی برای نقص‌های امنیتی افزایش دهند. فارستر در آنها هشدار می دهد پیش بینی امنیت سایبری، ریسک و حریم خصوصی ۲۰۲۴.

این شرکت تحقیقاتی و مشاوره پیش‌بینی می‌کند که شیوه‌های انطباق و حاکمیت متناقض همراه با بسیاری از تیم‌های Devops که همزمان با چندین دستیار کدنویسی هوش مصنوعی آزمایش می‌کنند تا بهره‌وری را افزایش دهند، منجر به ایجاد کد هوش مصنوعی معیوب و مسئول حداقل سه مورد نقض عمومی در سال ۲۰۲۴ خواهد شد. فورستر همچنین هشدار می‌دهد که هوش مصنوعی نقص کد خطرات امنیتی API را به همراه خواهد داشت.

دستیاران کدگذاری هوش مصنوعی Shadow IT را دوباره تعریف می کنند

۴۹% متخصصان کسب و کار و فناوری با دانش دستیاران کدنویسی هوش مصنوعی می‌گویند که سازمان‌هایشان در حال اجرای آزمایشی، پیاده‌سازی یا قبلاً آن‌ها را در سازمان خود پیاده‌سازی کرده‌اند. گارتنر پیش بینی می کند که تا سال ۲۰۲۸۷۵% مهندسان نرم‌افزار سازمانی از دستیاران کدنویسی هوش مصنوعی استفاده خواهند کرد که کمتر از ۱۰ درصد در اوایل سال ۲۰۲۳ بود.

رهبران Devops به VentureBeat می‌گویند که یافتن چندین دستیار کدنویسی هوش مصنوعی که در بین تیم‌ها استفاده می‌شوند امری عادی است زیرا فشار برای تولید حجم بالایی از کد هر روز در حال افزایش است. جدول‌های زمانی سخت‌تر برای کدنویسی پیچیده‌تر همراه با تکثیر بیش از ۴۰ دستیار کدنویسی هوش مصنوعی منجر به شکل جدیدی از فناوری اطلاعات سایه‌ای می‌شود که در آن تیم‌های Devops از یک دستیار هوش مصنوعی به دستیار دیگری تغییر می‌کنند تا ببینند کدام یک بالاترین عملکرد را برای یک کار مشخص ارائه می‌دهد. شرکت‌ها در تلاش هستند تا با تقاضای تیم‌های Devops خود برای ابزارهای کدگذاری هوش مصنوعی جدید که برای استفاده در سراسر شرکت تأیید شده‌اند، پاسخ دهند.

رویداد VB

هوش مصنوعی آزاد شد

AI Unleashed در ۱۵ نوامبر را از دست ندهید! این رویداد مجازی بینش‌های انحصاری و بهترین شیوه‌های رهبران داده از جمله Albertsons، Intuit و غیره را به نمایش می‌گذارد.

در اینجا به صورت رایگان ثبت نام کنید

دستیارهای کدنویسی هوش مصنوعی از ارائه دهندگان پیشرو AI و LLM از جمله Anthropic، Amazon، GitHub، GitLab، Google، Hugging Face، IBM، Meta، Parasoft، Red Hat، Salesforce، ServiceNow، Stability AI، Tabnine و دیگران در دسترس هستند.

CISO ها در سال ۲۰۲۴ با یک عمل متعادل کننده چالش برانگیز روبرو هستند

پیش‌بینی‌های امنیت سایبری، ریسک و حریم خصوصی Forrester منعکس‌کننده سال چالش‌برانگیز پیش‌رو برای CISO‌هایی است که باید بین دستاوردهای بهره‌وری تعادل ایجاد کنند.

رعایت صحیح انطباق برای حفاظت از مالکیت معنوی ضروری است، دارایی‌ای که هیچ‌کس نمی‌خواهد با وجود دستاوردهای مرحله‌به‌گامی که هوش مصنوعی مولد امروز ارائه می‌کند، در معرض خطر قرار دهد.

اینکه چگونه یک CISO و تیم‌های آن می‌توانند نوآوری، انطباق و حاکمیت را مثلث‌بندی کنند تا به شرکت‌هایشان مزیت رقابتی در سال ۲۰۲۴ بدهند، در سال ۲۰۲۴ بیش از هر سال گذشته قابل اندازه‌گیری خواهد بود. افزایش بهره وری هوش مصنوعی مولد در برابر خطرات متعادل است و نیاز به نرده های محافظ قابل اعتماد یکی از مسائل کلیدی خواهد بود که هر CISO احتمالاً در سال آینده نیز با آن سر و کار خواهد داشت.

هدف: دستیابی به دستاوردهای نوآوری هوش مصنوعی و در عین حال کاهش ریسک

پیش‌بینی‌های امنیت سایبری، ریسک و حریم خصوصی Forrester برای سال ۲۰۲۴، هر سازمانی را برای دستیابی به دستاوردهای نوآوری هوش مصنوعی بیشتر راهنمایی می‌کند و در عین حال خطرات ناشی از نقض مبتنی بر کد و انسانی را کاهش می‌دهد. در مجموع، آنها نشان می‌دهند که چقدر ضروری است که ابتدا مطابقت، حاکمیت و نرده‌های محافظ برای مدل‌های جدید هوش مصنوعی و ML به دست آوریم، بنابراین دستاوردهای بهره‌وری حاصل از برنامه‌نویسی مبتنی بر هوش مصنوعی و ابزارهای توسعه‌دهنده بیشترین سود را با کمترین خطر ارائه می‌دهد.

در سال ۲۰۲۴، زمانی که سازمان‌ها از الزامات هوش مصنوعی مولد (genAI) استقبال می‌کنند، حکمرانی و مسئولیت‌پذیری جزء مهمی برای اطمینان از اخلاقی بودن استفاده از هوش مصنوعی خواهد بود و الزامات قانونی را نقض نمی‌کند. می نویسد فارستر در پیش‌بینی‌های امنیت سایبری خود. این گزارش ادامه می‌دهد: «این سازمان‌ها را قادر می‌سازد تا با خیال راحت از آزمایش به پیاده‌سازی فناوری‌های جدید مبتنی بر هوش مصنوعی گذر کنند».

داده های Forrester در سال ۲۰۲۳ این را نشان می دهد ۵۳% تصمیم گیرندگان هوش مصنوعی که سازمان‌هایشان تغییراتی در سیاست‌گذاری در مورد genAI ایجاد کرده‌اند، در حال توسعه برنامه‌های حاکمیتی هوش مصنوعی برای حمایت از موارد استفاده از هوش مصنوعی هستند.

پیش بینی های آنها برای سال ۲۰۲۴ به شرح زیر است:

حملات مهندسی اجتماعی با یافتن راه‌های جدیدی برای استفاده از هوش مصنوعی مولد توسط مهاجمان افزایش می‌یابد.

FraudGPT تنها آغازی بود برای اینکه چگونه مهاجمان هوش مصنوعی مولد را به سلاح تبدیل می کنند و ادامه می دهند توهین آمیز. در سال ۲۰۲۴ شاهد افزایش حملات مهندسی اجتماعی از ۷۴ درصد تمام تلاش های نقض به ۹۰ درصد در سال آینده خواهیم بود. Forrester هشدار می دهد که آنها می بینند که عنصر انسانی بیشتر از همیشه مورد حمله قرار گرفته است.

این یک خبر نگران کننده برای صنعتی است که در آن برخی از مخرب ترین حملات باج افزار در سال ۲۰۲۳ وجود دارد. با یک تماس تلفنی شروع شد. رویکردهای موجود برای آموزش آگاهی امنیتی کار نمی کند. فارستر به این نکته اشاره می‌کند که آنچه مورد نیاز است یک رویکرد مبتنی بر داده بیشتر برای تغییر رفتار است که خطرات انسانی را کمیت می‌کند و بازخورد آموزشی در زمان واقعی را به کارمندان و شکاف‌های ادراکی که ممکن است در شناسایی تهدیدها داشته باشند ارائه دهد.

شرکت‌های بیمه سایبری استانداردهای خود را تشدید خواهند کرد و دو فروشنده فناوری را به‌عنوان پرخطر معرفی خواهند کرد.

ترکیب داده‌های تله‌متری بی‌درنگ و تجزیه و تحلیل قوی‌تر و ابزارهای genAI برای تجزیه و تحلیل آن، به شرکت‌های بیمه دیدی را می‌دهد که سال‌ها برای کاهش خطرات خود به آن نیاز داشتند. فارستر مشاهده می‌کند که شرکت‌های بیمه نیز بینش بیشتری از آن خواهند داشت خدمات امنیتی و مشارکت های فنی و بینش های بیشتر مبتنی بر داده، از جمله پزشکی قانونی ناشی از ادعاهای بیمه.

با توجه به افزایش تعداد و شدت یک به چند انبوه نقض هایی مانند MOVEitForrester پیش‌بینی می‌کند که فروشندگان امنیتی با امتیازدهی ریسک و محاسباتی که برای محاسبه حق بیمه مشتریانشان که به دنبال پوشش هستند نیز مورد استفاده قرار خواهند گرفت، ارزیابی خواهند شد.

انتظار داشته باشید یک برنامه مبتنی بر ChatGPT را به دلیل سوء استفاده از اطلاعات شناسایی شخصی (PII) جریمه کنید.

ضمنی در این پیش‌بینی این است که سیستم‌های مدیریت هویت و دسترسی (IAM) تا چه اندازه آسیب‌پذیر هستند. اکتیو دایرکتوری (AD) یکی از محبوب ترین اهداف هر حمله با انگیزه هویت است. تقریبا ۹۵ میلیون حساب اکتیو دایرکتوری روزانه مورد حمله قرار می گیرند، زیرا ۹۰٪ سازمان ها از پلت فرم هویت به عنوان روش اصلی احراز هویت و مجوز کاربر استفاده می کنند. جان تولبرت مدیر تحقیقات امنیت سایبری و تحلیلگر ارشد در کوپینگر کول، در گزارش می نویسد هویت و امنیت: پرداختن به منظره تهدید مدرن: “کامپوننت‌های Active Directory اهدافی با اولویت در کمپین‌ها هستند و مهاجمان پس از یافتن می‌توانند جنگل‌ها و دامنه‌های Active Directory (AD) اضافی ایجاد کنند و برای تسهیل دسترسی آسان‌تر بین آنها اعتماد ایجاد کنند. آنها همچنین می‌توانند به طور کامل اعتماد فدراسیون ایجاد کنند. دامنه های مختلف. در این پیش بینی ضمنی این است که سیستم های مدیریت هویت و دسترسی (IAM) چقدر آسیب پذیر هستند. Active Directory (AD) یکی از محبوب ترین اهداف هر حمله با انگیزه هویت است. تقریباً ۹۵ میلیون حساب اکتیو دایرکتوری روزانه مورد حمله قرار می گیرند، زیرا ۹۰٪ سازمان ها از پلت فرم هویت به عنوان روش اصلی احراز هویت و مجوز کاربر استفاده می کنند. جان تولبرت مدیر تحقیقات امنیت سایبری و تحلیلگر ارشد در کوپینگر کول، در گزارش می نویسد هویت و امنیت: پرداختن به منظره تهدید مدرن: “کامپوننت‌های Active Directory اهدافی با اولویت در کمپین‌ها هستند و مهاجمان پس از یافتن می‌توانند جنگل‌ها و دامنه‌های Active Directory (AD) اضافی ایجاد کنند و برای تسهیل دسترسی آسان‌تر بین آنها اعتماد ایجاد کنند. آنها همچنین می‌توانند به طور کامل اعتماد فدراسیون ایجاد کنند. دامنه های مختلف

فورستر خاطرنشان می کند که OpenAI همچنان به بررسی نظارتی بیشتر در جریان ادامه می دهد تحقیق در ایتالیاو وکلا در لهستان با a جدید طرح دعوی در دادگاه برای چندین نقض بالقوه GDPR. در نتیجه، هیئت حفاظت از داده اروپا راه اندازی کرده است نیروی کار برای هماهنگ کردن اقدامات اجرایی علیه ChatGPT OpenAI. در ایالات متحده، FTC نیز در حال بررسی است OpenAI. در حالی که OpenAI منابع فنی و مالی برای دفاع از خود در برابر قانونگذاران را دارد، سایر برنامه های شخص ثالث اجرای ChatGPT انجام نمی شود.

نقش‌ها و عناوین بدون اعتماد در سطح ارشد در بخش‌های عمومی و خصوصی جهانی دو برابر خواهد شد

در حال حاضر وجود دارد ۹۲ موقعیت اعتماد صفر موجود در ایالات متحده در لینکدین و ۱۵۱ در سراسر جهان. پیش بینی خوش بینانه Forrester مبنی بر دو برابر شدن رشد موقعیت اعتماد صفر در دوازده ماه آینده با پذیرش گسترده تر NIST Zero Trust Architecture چارچوب در سراسر پایگاه مشتری خود. Forrester پیش‌بینی می‌کند که عدم اعتماد، تقاضا برای متخصصان امنیت سایبری با تخصص مهندسی، حاکمیت، استراتژی و رهبری را افزایش می‌دهد. این سمت‌ها در سازمان‌های امنیتی آژانس فدرال قرار می‌گیرند و جزء اصلی کارکنان و خدمات برای شرکت‌هایی می‌شوند که این کارکردهای آژانس را افزایش می‌دهند و شرکت‌های بخش خصوصی که مسئول حمایت هستند. ۸۵ درصد از زیرساخت های حیاتی ایالات متحده. Forrester به مشتریان خود توصیه می کند که با بررسی الزامات یک نقش بدون اعتماد در سازمان خود و شناسایی گروهی از افراد برای پیگیری آماده شوند. گواهینامه های Zero Trust.

ماموریت VentureBeat این است که یک میدان شهر دیجیتال برای تصمیم گیرندگان فنی باشد تا دانشی در مورد فناوری سازمانی متحول کننده کسب کنند و معامله کنند. جلسات توجیهی ما را کشف کنید.


منبع: https://venturebeat.com/security/forrester-predicts-a-i-code-flaws-will-enable-new-attacks-next-year/

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *