ناشناخته نیست که هوش مصنوعی (AI) کمک قابل توجهی به نوآوری در داخل کرده است امنیت سایبری صنعت. هوش مصنوعی مزایای افزایش یافته ای را به موارد موجود ارائه می دهد امنیت زیرساخت به دلیل توانایی آن در خودکارسازی وظایف، شناسایی تهدیدات و تجزیه و تحلیل مجموعهای از دادهها. به طور خاص، میتوان از آن برای شناسایی گرایشها در حملات فیشینگ استفاده کرد و در شناسایی خطاهای مهم کدگذاری که به دلیل نظارت انسان از دست رفته است، مؤثر است. این فناوری همچنین می تواند مفاهیم فنی پیچیده را ساده کند و حتی اسکریپت و کد انعطاف پذیر را توسعه دهد. در نهایت، کمک به دور نگه داشتن مجرمان سایبری.
با این حال، هوش مصنوعی یک شمشیر دو لبه است، زیرا بازیگران بد نیز به این ابزارها دسترسی دارند و می توانند از آنها برای اهداف مخرب استفاده کنند. پس از اجلاس اخیر ایمنی هوش مصنوعی در بریتانیا، سوالاتی پیرامون هوش مصنوعی و تاثیر آن بر داده ها مطرح شد حریم خصوصی بیش از هر زمان دیگری تحت فشار قرار گرفته اند. همانطور که فناوری در زمان واقعی تکامل مییابد، ترس پیرامون هوش مصنوعی نیز افزایش مییابد زیرا پیشبینی چگونگی ادامه توسعه آن در آینده دشوار میشود.
سیستم های مجهز به هوش مصنوعی تا حد زیادی به پرسنل متکی هستند داده ها برای یادگیری و پیش بینی، ایجاد نگرانی در مورد جمع آوری، پردازش و ذخیره چنین داده هایی. با دسترسی آسان به ابزارهای هوش مصنوعی مانند چت ربات ها و تولیدکنندههای تصویر، تاکتیکهایی مانند استفاده از فناوری دیپفیک برای دور زدن مقررات حفظ حریم خصوصی دادهها در حال رایجتر شدن است. در واقع، تحقیقات اخیر از Trellix نشان داده است که هوش مصنوعی و ادغام مدلهای زبان بزرگ (LLMs)، استراتژیهای مهندسی اجتماعی مورد استفاده بازیگران بد را به شدت تغییر میدهد.
با پذیرش سریع هوش مصنوعی توسط مجرمان سایبری، سازمانها باید برای جلوگیری از قربانی شدن این حملات و از دست دادن دادههای حیاتی، جلوتر باشند. بنابراین چگونه سازمان ها می توانند این کار را انجام دهند؟
استفاده مخرب از هوش مصنوعی Generative
اینترنت مملو از ابزارهایی است که از هوش مصنوعی برای آسانتر کردن زندگی مردم استفاده میکنند. برخی از این ابزارها عبارتند از ChatGPTهوش مصنوعی Bard یا Perplexity که دارای مکانیسم های امنیتی برای جلوگیری از نوشتن کدهای مخرب توسط ربات چت است.
با این حال، این مورد برای همه ابزارها، به ویژه ابزارهایی که در وب تاریک توسعه می یابند، صدق نمی کند. در دسترس بودن این ابزارها منجر به ظهور «Script Kiddies» شده است. اینها افرادی هستند که تخصص فنی کمی ندارند و از ابزارها یا اسکریپت های خودکار از قبل موجود برای راه اندازی حملات سایبری استفاده می کنند. مهم است که آنها به عنوان آماتورهای غیر ماهر نادیده گرفته نشوند، زیرا ظهور هوش مصنوعی فقط اجرای حملات پیچیده را برای آنها آسان تر می کند.
واضح است که هوش مصنوعی امروزی برنامه های کاربردی ارائه ابزارهای قدرتمند و مقرون به صرفه برای هکرها، که نیاز به تخصص گسترده، زمان و منابع دیگر را از بین می برد. پیشرفتهای اخیر در هوش مصنوعی منجر به ظهور مدلهای زبان بزرگ (LLM) شده است که میتواند متون انسانمانند تولید کند. مجرمان سایبری میتوانند از ابزارهای LLM برای بهبود مراحل کلیدی یک کمپین فیشینگ موفق با جمعآوری اطلاعات پسزمینه، استخراج دادهها برای تولید محتوای مناسب استفاده کنند. این امر باعث می شود که این عوامل تهدید به راحتی فیشینگ ایجاد کنند ایمیل ها سریع و در مقیاس با هزینه های حاشیه ای کم.
نفوذ به مشاغل از طریق کلاهبرداری صوتی هوش مصنوعی
تحقیقات اخیر ما نشان میدهد که تاکتیکهای مهندسی اجتماعی بر اساس ۴۵ درصد از سازمانهای دولتی بریتانیا، علت شماره یک حملات سایبری بزرگ هستند. مجرمان سایبری به طور فزاینده ای به فناوری روی می آورند تا مهندسی اجتماعی را خودکار کنند و از ربات ها برای جمع آوری داده ها و فریب قربانیان برای به اشتراک گذاشتن اطلاعات حساس مانند یک بار مصرف استفاده کنند. رمزهای عبور. صداهای تولید شده توسط هوش مصنوعی نقش بزرگی در این امر ایفا می کنند.
این کلاهبرداریهای صوتی با هوش مصنوعی الگوهای گفتار انسان را تقلید میکنند و تشخیص صداهای واقعی و جعلی را دشوار میکنند. این رویکرد نیاز به دخالت گسترده انسان را کاهش می دهد و آثار پس از حمله را به حداقل می رساند.
کلاهبرداران از این صداها در کنار تکنیک های دستکاری روانی برای فریب دادن افراد استفاده می کنند. آنها اعتماد و فوریت را در قربانیان خود ایجاد می کنند و آنها را مستعد دستکاری می کنند. در گزارش تهدید نوامبر خود، متوجه شدیم که صداهای Al-generated را میتوان برای صحبت به چندین زبان برنامهریزی کرد و به کلاهبرداران اجازه میدهد قربانیان را در مناطق مختلف جغرافیایی و زمینههای زبانی هدف قرار دهند.
در نتیجه، حملات فیشینگ و ویشینگ همچنان افزایش مییابد زیرا عوامل تهدید از این تاکتیکها در تماسهای تلفنی زنده برای دستکاری کسبوکارها برای به اشتراک گذاشتن دادههای شرکت استفاده میکنند. در میان تهدیدات فیشینگ که همیشه در حال تحول هستند، سازمان ها باید یک قدم جلوتر از مجرمان سایبری باقی بمانند یا در خطر سوء استفاده از سیستم، کارمندان و داده های ارزشمند خود برای تهدیدات قرار بگیرند.
تیم های امنیتی باید محیط های تهدید انعطاف پذیرتری بسازند
سازمانها باید خودشان از هوش مصنوعی استفاده کنند، نه تنها برای محافظت مجدد از تاکتیکهای هوش مصنوعی که توسط مجرمان سایبری استفاده میشود، بلکه برای بهرهگیری از مزایایی که در فرآیندهای روزمره خواهد داشت. هوش مصنوعی را می توان برای افزایش کارایی و بهره وری عملیاتی، ادغام در فرآیند تصمیم گیری استفاده کرد و به سازمان ها کمک می کند تا در چشم انداز به سرعت در حال تحول رقابتی باقی بمانند.
با توجه به این که این حملات سایبری مبتنی بر هوش مصنوعی می تواند شناسایی آنها را برای سازمان ها به طور فزاینده ای دشوار کند، به طور فزاینده ای مهم است که آنها فناوری مناسبی را که می تواند این تهدیدها را پیش بینی و به آنها پاسخ دهد، پیاده سازی کنند. اینجاست که اجرای راه حل تشخیص و پاسخ گسترده (XDR) کلیدی است.
XDR، در یک سطح اساسی، تشخیص و پاسخ تهدید را متحول می کند. تحقیقات ما نشان داد که در صورت نقض دادهها، ۴۴ درصد از CISO معتقدند که XDR میتواند به شناسایی و اولویتبندی هشدارهای حیاتی کمک کند، ۳۷ درصد دریافتند که میتواند بررسیهای تهدید را تسریع کند و ۳۳ درصد هشدارهای تهدید مثبت کاذب کمتری دارند. همچنین به تیمهای امنیتی اجازه میدهد تا دید بهتری در سطح وسیعتر حمله تهدید و اولویتبندی واضحتر خطرات داشته باشند. در نتیجه، از CISOهای جهانی که با نقض دادهها برخورد کردند، ۷۶ درصد موافقند که اگر XDR داشتند، حادثه مهم امنیت سایبری تأثیر کمتری داشت.
ماندن در صدر هوش مصنوعی در عصر حریم خصوصی داده ها
به طور کلی، سازمان ها باید با احتیاط به هوش مصنوعی نزدیک شوند. بر کسی پوشیده نیست که مزایای آن از طریق ساده سازی مفاهیم فنی پیچیده، روش کار مردم را متحول کرده است، اما به دلیل ماهیت دوگانه آن، باید در اجرای آن دقت کرد. مجرمان سایبری با هوش مصنوعی غریبه نیستند و اخیراً از آن برای دستکاری و ایجاد داده های جعلی برای ایجاد سردرگمی یا جعل هویت مقامات مانند حملات اخیر Booking.com استفاده می کنند.
برای جلوگیری از قربانی شدن این حملات هوش مصنوعی، کسبوکارها باید از چشمانداز امنیت سایبری در حال تکامل استقبال کنند و روی روشهایی سرمایهگذاری کنند که در برابر حملات سایبری پیچیده دفاع میکنند. با ترکیبی از فناوریها، استعدادها و تاکتیکهای مناسب، تیمهای عملیات امنیتی (SecOps) به خوبی برای کاهش تهدیدات سایبری سازمان خود مجهز خواهند شد.
ما بهترین نرم افزار رمزگذاری را معرفی کرده ایم.
این مقاله به عنوان بخشی از کانال Expert Insights TechRadarPro تهیه شده است که در آن بهترین و باهوش ترین ذهن ها در صنعت فناوری امروز را معرفی می کنیم. نظرات بیان شده در اینجا نظرات نویسنده است و لزوماً نظرات TechRadarPro یا Future plc نیست. اگر علاقه مند به مشارکت هستید، در اینجا اطلاعات بیشتری کسب کنید: https://www.techradar.com/news/submit-your-story-to-techradar-pro
منبع: https://www.techradar.com/pro/the-growing-threat-of-data-breaches-in-the-age-of-ai-and-data-privacy