آیا آماده اید تا آگاهی بیشتری را به برند خود بیاورید؟ در نظر بگیرید که برای تور AI Impact Tour اسپانسر شوید. درباره فرصت ها بیشتر بدانید اینجا.
VentureBeat اخیراً (به طور مجازی) با نیر والتمن، مدیر عامل و بنیانگذار آرنیکا. تجربه گسترده امنیت سایبری Valtman شامل امنیت محصولات و داده های پیشرو در سراسر جهان است بهترین هاایجاد و تقویت شیوههای امنیتی و مدیریت وضعیت در Kabbage (که توسط Amex خریداری شده) به عنوان CISO، و هدایت امنیت برنامه در سراسر جهان NCR. او همچنین در هیئت مشاوران خدمت می کند امنیت نمک.
شهرت والتمن بهعنوان یکی از پرکارترین نوآوران در صنعت، در مشارکتهای فراوان او در پروژههای منبع باز و اختراع هفت پتنت در امنیت نرمافزار نیز منعکس شده است. او همچنین یکی از سخنرانان مکرر رویدادهای امنیت سایبری این صنعت است، از جمله کلاه سیاه، DEF CONBSides، و RSA.
تحت رهبری Valtman، Arnica نسل بعدی ابزارها، تکنیک ها و فناوری های امنیتی برنامه های کاربردی متمرکز بر توسعه دهنده را تعریف می کند.
متن زیر گزیده ای از مصاحبه VentureBeat با نیر والتمن است:
VentureBeat: نقش هوش مصنوعی مولد در امنیت سایبری را در طی ۳ تا ۵ سال آینده چگونه متصور میشوید؟
نیر والتمن: من فکر میکنم که ما شروع به درک بهتری از جایی که ژنرال هوش مصنوعی مناسب است و در واقع مسیر طولانیتری را طی میکند، داریم. هوش مصنوعی ژنرال میتواند ارزش فوقالعادهای را در امنیت برنامهها با تجهیز توسعهدهندگان به ابزارهایی که به طور پیشفرض ایمن هستند به ارمغان بیاورد – یا حداقل به توسعهدهندگان کمتجربه برای رسیدن به این هدف کمک کند.
VB: چه فناوریها یا روشهای نوظهوری را رصد میکنید که ممکن است بر نحوه استفاده از هوش مصنوعی مولد برای امنیت تأثیر بگذارد؟
والتمن: یکی از نیازهای نوظهور که من در بازار می بینم، ارائه مسیرهای اصلاحی عملی برای آسیب پذیری های امنیتی به توسعه دهندگان است. این کار با اولویت بندی اینکه کدام دارایی ها در سازمان مهم هستند، سپس با یافتن صاحبان اصلاح مناسب و در نهایت با کاهش ریسک برای آنها شروع می شود. هوش مصنوعی ژنرال ابزار ارزشمندی برای اصلاح ریسک خواهد بود، اما اولویت بندی آنچه برای یک تیم یا شرکت مهم است و شناسایی افرادی که اقدامات لازم را انجام می دهند، ممکن است نیاز به قطعیت بیشتری داشته باشد.
VB: کجا سازمان ها باید سرمایه گذاری ها را برای به حداکثر رساندن پتانسیل هوش مصنوعی مولد در امنیت سایبری اولویت دهند؟
والتمن: سازمانها باید سرمایهگذاری را برای حل مشکلات تکراری و پیچیده، مانند کاهش دستههای خاصی از آسیبپذیریهای کد منبع، در اولویت قرار دهند. همانطور که Gen AI با موارد استفاده اضافی خود را ثابت می کند، این اولویت بندی در طول زمان تغییر خواهد کرد.
VB: هوش مصنوعی مولد چگونه می تواند رویکرد امنیتی را از واکنشی به پیشگیرانه تغییر دهد؟
والتمن: برای اینکه ژنرال هوش مصنوعی واقعاً پیش بینی کننده باشد، باید بر روی مجموعه داده های بسیار مرتبط آموزش ببیند. هر چه یک مدل پیش بینی و دقیق تر باشد، رهبران فناوری اعتماد بیشتری به تصمیم گیری های مبتنی بر هوش مصنوعی خواهند داشت. حلقه اعتماد مدتی طول می کشد تا شتاب ایجاد کند، به خصوص در عرصه های پرمخاطره مانند امنیت. اما به محض اینکه مدلها بیشتر مورد آزمایش نبرد قرار گیرند، ابزارهای امنیتی مبتنی بر هوش مصنوعی ژنرال قادر خواهند بود به طور فعال خطرات را با دخالت کم یا بدون دخالت انسانی کاهش دهند. در این میان، همانطور که در موضوع اولویتبندی و مالکیت بالا اشاره شد، میتوان با بررسی دقیقتر توسط انسانهای مناسب در زمان مناسب، اقدامات امنیتی پیشگیرانه انجام داد.
VB: چه تغییراتی در سطح سازمانی باید ایجاد شود تا هوش مصنوعی مولد برای امنیت ترکیب شود؟
والتمن: باید در سطوح استراتژیک و تاکتیکی تغییراتی ایجاد شود. از نقطه نظر استراتژیک، تصمیم گیرندگان باید در مورد مزایا و خطرات استفاده از این فناوری آموزش ببینند و همچنین تصمیم بگیرند که چگونه استفاده از هوش مصنوعی با اهداف امنیتی شرکت همسو می شود. در بخش تاکتیکی، بودجه و منابع باید برای مدیریت برنامه هوش مصنوعی آنها تخصیص داده شود، مانند ادغام با ابزارهای کشف دارایی، برنامه کاربردی و داده ها، و همچنین توسعه یک کتاب بازی برای هدایت اقدامات اصلاحی از یافته ها یا حوادث امنیتی.
VB: اگر هوش مصنوعی مولد در یک سازمان اجرا شود، چه چالش های امنیتی می تواند ایجاد کند؟ چگونه با این چالش ها مبارزه می کنید؟
والتمن: حفظ حریم خصوصی و نشت داده ها بیشترین خطر را دارد. این موارد را میتوان با میزبانی داخلی مدلها، ناشناسسازی دادهها قبل از ارسال به سرویسهای خارجی، و ممیزیهای منظم برای اطمینان از انطباق با الزامات داخلی و نظارتی کاهش داد.
یک منطقه پرخطر اضافی، تأثیر بر امنیت یا یکپارچگی مدلها است، مانند مسمومیت مدل یا بهرهبرداری از مدلها برای دستیابی به دادههای بیشتر از نیاز. کاهش بی اهمیت نیست، زیرا برای شناسایی این خطرات به ارزیابی آسیب پذیری و آزمایش نفوذ پیچیده نیاز دارد. حتی اگر این ریسکها برای پیادهسازی خاصی که شرکت استفاده میکند شناسایی شود، یافتن راهحلهایی که بر عملکرد تأثیری ندارند، ممکن است بیاهمیت نباشد.
VB: هوش مصنوعی مولد چگونه میتواند تشخیص تهدید، وصلههای امنیتی و سایر فرآیندها را خودکار کند؟
والتمن: با مشاهده رفتار تاریخی در شبکهها، گزارشها، محتوای ایمیل، کد، تراکنشها و سایر منابع داده، هوش مصنوعی مولد میتواند تهدیدهایی مانند انفجار بدافزار، تهدیدات داخلی، تصاحب حسابها، فیشینگ، تقلب در پرداخت و موارد دیگر را شناسایی کند. این یک تناسب طبیعی است.
موارد استفاده دیگری که ممکن است تکامل آن بیشتر طول بکشد، مدلسازی تهدید در مرحله طراحی توسعه نرمافزار، استقرار وصله خودکار با حداقل خطر (نیاز به داشتن پوشش آزمایشی کافی برای نرمافزار توسعهیافته) و اجرای کتاب نمایش خودکار پاسخ به حادثه بالقوه خود-بهبودی است. .
VB: سازمانها چه برنامهها یا استراتژیهایی را در رابطه با هوش مصنوعی و حفاظت از دادهها باید اجرا کنند؟
والتمن: خطمشیهایی باید حول محور جمعآوری، ذخیرهسازی، استفاده و به اشتراکگذاری دادهها ایجاد شود، و همچنین اطمینان حاصل شود که نقشها و مسئولیتها به وضوح تعریف شدهاند. این خطمشیها باید با استراتژی کلی امنیت سایبری، که شامل عملکردهای حمایتی برای حفاظت از دادهها، مانند طرحهای واکنش به حادثه و اطلاعرسانی نقض، مدیریت ریسک فروشنده و شخص ثالث، آگاهی امنیتی و غیره است، همسو شوند.
ماموریت VentureBeat این است که یک میدان شهر دیجیتال برای تصمیم گیرندگان فنی باشد تا دانشی در مورد فناوری سازمانی متحول کننده کسب کنند و معامله کنند. جلسات توجیهی ما را کشف کنید.
منبع: https://venturebeat.com/security/how-arnicas-ceo-foresees-generative-ais-impact-on-devops-security/