چگونه مدیر عامل Arnica تأثیر هوش مصنوعی مولد بر امنیت DevOps را پیش بینی می کند

آیا آماده اید تا آگاهی بیشتری را به برند خود بیاورید؟ در نظر بگیرید که برای تور AI Impact Tour اسپانسر شوید. درباره فرصت ها بیشتر بدانید اینجا.


VentureBeat اخیراً (به طور مجازی) با نیر والتمن، مدیر عامل و بنیانگذار آرنیکا. تجربه گسترده امنیت سایبری Valtman شامل امنیت محصولات و داده های پیشرو در سراسر جهان است بهترین هاایجاد و تقویت شیوه‌های امنیتی و مدیریت وضعیت در Kabbage (که توسط Amex خریداری شده) به عنوان CISO، و هدایت امنیت برنامه در سراسر جهان NCR. او همچنین در هیئت مشاوران خدمت می کند امنیت نمک.

شهرت والتمن به‌عنوان یکی از پرکارترین نوآوران در صنعت، در مشارکت‌های فراوان او در پروژه‌های منبع باز و اختراع هفت پتنت در امنیت نرم‌افزار نیز منعکس شده است. او همچنین یکی از سخنرانان مکرر رویدادهای امنیت سایبری این صنعت است، از جمله کلاه سیاه، DEF CONBSides، و RSA.

تحت رهبری Valtman، Arnica نسل بعدی ابزارها، تکنیک ها و فناوری های امنیتی برنامه های کاربردی متمرکز بر توسعه دهنده را تعریف می کند.

متن زیر گزیده ای از مصاحبه VentureBeat با نیر والتمن است:

VentureBeat: نقش هوش مصنوعی مولد در امنیت سایبری را در طی ۳ تا ۵ سال آینده چگونه متصور می‌شوید؟

رویداد VB

تور AI Impact Tour

در تور AI Impact VentureBeat که به شهر نزدیک شما می آید، با جامعه هوش مصنوعی سازمانی ارتباط برقرار کنید!

بیشتر بدانید

نیر والتمن: من فکر می‌کنم که ما شروع به درک بهتری از جایی که ژنرال هوش مصنوعی مناسب است و در واقع مسیر طولانی‌تری را طی می‌کند، داریم. هوش مصنوعی ژنرال می‌تواند ارزش فوق‌العاده‌ای را در امنیت برنامه‌ها با تجهیز توسعه‌دهندگان به ابزارهایی که به طور پیش‌فرض ایمن هستند به ارمغان بیاورد – یا حداقل به توسعه‌دهندگان کم‌تجربه برای رسیدن به این هدف کمک کند.

VB: چه فناوری‌ها یا روش‌های نوظهوری را رصد می‌کنید که ممکن است بر نحوه استفاده از هوش مصنوعی مولد برای امنیت تأثیر بگذارد؟

والتمن: یکی از نیازهای نوظهور که من در بازار می بینم، ارائه مسیرهای اصلاحی عملی برای آسیب پذیری های امنیتی به توسعه دهندگان است. این کار با اولویت بندی اینکه کدام دارایی ها در سازمان مهم هستند، سپس با یافتن صاحبان اصلاح مناسب و در نهایت با کاهش ریسک برای آنها شروع می شود. هوش مصنوعی ژنرال ابزار ارزشمندی برای اصلاح ریسک خواهد بود، اما اولویت بندی آنچه برای یک تیم یا شرکت مهم است و شناسایی افرادی که اقدامات لازم را انجام می دهند، ممکن است نیاز به قطعیت بیشتری داشته باشد.

VB: کجا سازمان ها باید سرمایه گذاری ها را برای به حداکثر رساندن پتانسیل هوش مصنوعی مولد در امنیت سایبری اولویت دهند؟

والتمن: سازمان‌ها باید سرمایه‌گذاری را برای حل مشکلات تکراری و پیچیده، مانند کاهش دسته‌های خاصی از آسیب‌پذیری‌های کد منبع، در اولویت قرار دهند. همانطور که Gen AI با موارد استفاده اضافی خود را ثابت می کند، این اولویت بندی در طول زمان تغییر خواهد کرد.

VB: هوش مصنوعی مولد چگونه می تواند رویکرد امنیتی را از واکنشی به پیشگیرانه تغییر دهد؟

والتمن: برای اینکه ژنرال هوش مصنوعی واقعاً پیش بینی کننده باشد، باید بر روی مجموعه داده های بسیار مرتبط آموزش ببیند. هر چه یک مدل پیش بینی و دقیق تر باشد، رهبران فناوری اعتماد بیشتری به تصمیم گیری های مبتنی بر هوش مصنوعی خواهند داشت. حلقه اعتماد مدتی طول می کشد تا شتاب ایجاد کند، به خصوص در عرصه های پرمخاطره مانند امنیت. اما به محض اینکه مدل‌ها بیشتر مورد آزمایش نبرد قرار گیرند، ابزارهای امنیتی مبتنی بر هوش مصنوعی ژنرال قادر خواهند بود به طور فعال خطرات را با دخالت کم یا بدون دخالت انسانی کاهش دهند. در این میان، همانطور که در موضوع اولویت‌بندی و مالکیت بالا اشاره شد، می‌توان با بررسی دقیق‌تر توسط انسان‌های مناسب در زمان مناسب، اقدامات امنیتی پیشگیرانه انجام داد.

VB: چه تغییراتی در سطح سازمانی باید ایجاد شود تا هوش مصنوعی مولد برای امنیت ترکیب شود؟

والتمن: باید در سطوح استراتژیک و تاکتیکی تغییراتی ایجاد شود. از نقطه نظر استراتژیک، تصمیم گیرندگان باید در مورد مزایا و خطرات استفاده از این فناوری آموزش ببینند و همچنین تصمیم بگیرند که چگونه استفاده از هوش مصنوعی با اهداف امنیتی شرکت همسو می شود. در بخش تاکتیکی، بودجه و منابع باید برای مدیریت برنامه هوش مصنوعی آنها تخصیص داده شود، مانند ادغام با ابزارهای کشف دارایی، برنامه کاربردی و داده ها، و همچنین توسعه یک کتاب بازی برای هدایت اقدامات اصلاحی از یافته ها یا حوادث امنیتی.

VB: اگر هوش مصنوعی مولد در یک سازمان اجرا شود، چه چالش های امنیتی می تواند ایجاد کند؟ چگونه با این چالش ها مبارزه می کنید؟

والتمن: حفظ حریم خصوصی و نشت داده ها بیشترین خطر را دارد. این موارد را می‌توان با میزبانی داخلی مدل‌ها، ناشناس‌سازی داده‌ها قبل از ارسال به سرویس‌های خارجی، و ممیزی‌های منظم برای اطمینان از انطباق با الزامات داخلی و نظارتی کاهش داد.

یک منطقه پرخطر اضافی، تأثیر بر امنیت یا یکپارچگی مدل‌ها است، مانند مسمومیت مدل یا بهره‌برداری از مدل‌ها برای دستیابی به داده‌های بیشتر از نیاز. کاهش بی اهمیت نیست، زیرا برای شناسایی این خطرات به ارزیابی آسیب پذیری و آزمایش نفوذ پیچیده نیاز دارد. حتی اگر این ریسک‌ها برای پیاده‌سازی خاصی که شرکت استفاده می‌کند شناسایی شود، یافتن راه‌حل‌هایی که بر عملکرد تأثیری ندارند، ممکن است بی‌اهمیت نباشد.

VB: هوش مصنوعی مولد چگونه می‌تواند تشخیص تهدید، وصله‌های امنیتی و سایر فرآیندها را خودکار کند؟

والتمن: با مشاهده رفتار تاریخی در شبکه‌ها، گزارش‌ها، محتوای ایمیل، کد، تراکنش‌ها و سایر منابع داده، هوش مصنوعی مولد می‌تواند تهدیدهایی مانند انفجار بدافزار، تهدیدات داخلی، تصاحب حساب‌ها، فیشینگ، تقلب در پرداخت و موارد دیگر را شناسایی کند. این یک تناسب طبیعی است.

موارد استفاده دیگری که ممکن است تکامل آن بیشتر طول بکشد، مدل‌سازی تهدید در مرحله طراحی توسعه نرم‌افزار، استقرار وصله خودکار با حداقل خطر (نیاز به داشتن پوشش آزمایشی کافی برای نرم‌افزار توسعه‌یافته) و اجرای کتاب نمایش خودکار پاسخ به حادثه بالقوه خود-بهبودی است. .

VB: سازمان‌ها چه برنامه‌ها یا استراتژی‌هایی را در رابطه با هوش مصنوعی و حفاظت از داده‌ها باید اجرا کنند؟

والتمن: خط‌مشی‌هایی باید حول محور جمع‌آوری، ذخیره‌سازی، استفاده و به اشتراک‌گذاری داده‌ها ایجاد شود، و همچنین اطمینان حاصل شود که نقش‌ها و مسئولیت‌ها به وضوح تعریف شده‌اند. این خط‌مشی‌ها باید با استراتژی کلی امنیت سایبری، که شامل عملکردهای حمایتی برای حفاظت از داده‌ها، مانند طرح‌های واکنش به حادثه و اطلاع‌رسانی نقض، مدیریت ریسک فروشنده و شخص ثالث، آگاهی امنیتی و غیره است، همسو شوند.

ماموریت VentureBeat این است که یک میدان شهر دیجیتال برای تصمیم گیرندگان فنی باشد تا دانشی در مورد فناوری سازمانی متحول کننده کسب کنند و معامله کنند. جلسات توجیهی ما را کشف کنید.


منبع: https://venturebeat.com/security/how-arnicas-ceo-foresees-generative-ais-impact-on-devops-security/

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *