ChatGPT پس از به روز رسانی جدید یک خطر امنیتی ترسناک دارد. آیا داده های شما مشکل دارد؟

به لطف به‌روزرسانی‌های جدید ChatGPT مانند مفسر کد، هوش مصنوعی مولد محبوب OpenAI مملو از نگرانی‌های امنیتی بیشتری است. طبق تحقیقات یوهان رهبرگر، کارشناس امنیتی (و کار بعدی از Tom’s Hardware)ChatGPT دارای نقص های امنیتی آشکار است که از ویژگی جدید آپلود فایل آن ناشی می شود.

به روز رسانی اخیر OpenAI به ChatGPT Plus تعداد بی شماری از ویژگی های جدید از جمله تولید تصویر DALL-E و مفسر کد را اضافه کرد که امکان اجرای کد پایتون و تجزیه و تحلیل فایل را فراهم می کند. کد در یک محیط sandbox ایجاد و اجرا می شود که متأسفانه در برابر حملات تزریق فوری آسیب پذیر است.

مدتی است که یک آسیب پذیری شناخته شده در ChatGPT، این حمله شامل فریب ChatGPT برای اجرای دستورالعمل ها از یک URL شخص ثالث است که منجر به کدگذاری فایل های آپلود شده در یک رشته URL پسند و ارسال این داده ها به یک وب سایت مخرب می شود. در حالی که احتمال چنین حمله ای مستلزم شرایط خاصی است (به عنوان مثال، کاربر باید به طور فعال یک URL مخرب را در ChatGPT جایگذاری کند)، این خطر همچنان نگران کننده است. این تهدید امنیتی می‌تواند از طریق سناریوهای مختلف، از جمله در معرض خطر قرار گرفتن یک وب‌سایت قابل اعتماد با یک پیام مخرب – یا از طریق تاکتیک‌های مهندسی اجتماعی، محقق شود.

Tom’s Hardware آزمایش های قابل توجهی انجام داد که نشان می دهد کاربران چقدر ممکن است در برابر این حمله آسیب پذیر باشند. این اکسپلویت با ایجاد یک فایل متغیرهای محیطی جعلی و استفاده از ChatGPT برای پردازش و ارسال ناخواسته این داده ها به یک سرور خارجی آزمایش شد. اگرچه اثربخشی این اکسپلویت در جلسات مختلف متفاوت بود (به عنوان مثال، ChatGPT گاهی اوقات از بارگیری صفحات خارجی یا انتقال داده های فایل خودداری می کرد)، نگرانی های امنیتی قابل توجهی را ایجاد می کند، به ویژه با توجه به توانایی هوش مصنوعی برای خواندن و اجرای دستورات لینوکس و مدیریت فایل های آپلود شده توسط کاربر در لینوکس. محیط مجازی مبتنی بر

همانطور که Tom’s Hardware در یافته های خود بیان می کند، علیرغم بعید به نظر می رسد، وجود این شکاف امنیتی قابل توجه است. ChatGPT باید ایده آل باشد نه دستورالعمل ها را از صفحات وب خارجی اجرا می کند، اما این کار را انجام می دهد. قابل مشروب کردن ما برای اظهار نظر با OpenAI تماس گرفتیم، اما بلافاصله به درخواست ما پاسخ نداد.


منبع: https://mashable.com/article/massive-chat-gpt-flaw-allows-hackers-to-steal-data

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *