ما آن را گفته ایم قبل از و خب گفتن آی تی از نو: چیزی را در ChatGPT وارد نکنید که نمیخواهید طرفهای غیرمجاز بخوانند.
از زمانی که OpenAI ChatGPT را در سال گذشته منتشر کرد، موارد زیادی وجود داشته است که نقصهای چت ربات هوش مصنوعی توسط بازیگران بد برای دسترسی به دادههای حساس یا خصوصی مورد استفاده قرار گرفته یا دستکاری شده است. و این آخرین مثال نشان می دهد که حتی پس از انتشار یک وصله امنیتی، مشکلات همچنان ممکن است پابرجا باشند.
بر اساس گزارشی که توسط بلیپ کامپیوترOpenAI اخیراً راه حلی را برای مشکلی که ChatGPT میتواند اطلاعات کاربران را به اشخاص ثالث غیرمجاز نشت کند، ارائه کرده است. این دادهها میتواند شامل مکالمات کاربر با ChatGPT و ابردادههای مربوطه مانند شناسه کاربر و اطلاعات جلسه باشد.
با این حال، به گفته محققان امنیتی یوهان رهبرگرکه در ابتدا این آسیبپذیری را کشف کرد و نحوه عملکرد آن را تشریح کرد، هنوز حفرههای امنیتی خالی در اصلاح OpenAI وجود دارد. در اصل، نقص امنیتی هنوز وجود دارد.
نشت داده های ChatGPT
Rehberger توانست از مزایای OpenAI که اخیراً منتشر شده و بسیار مورد تحسین قرار گرفته است، استفاده کند GPT های سفارشی ویژگی برای ایجاد GPT خود، که داده ها را از ChatGPT استخراج می کند. این یک یافته قابل توجه بود زیرا GPT های سفارشی به عنوان برنامه های هوش مصنوعی شبیه به اینکه چگونه آیفون انقلابی در برنامه های تلفن همراه با فروشگاه App ایجاد کرد، به بازار عرضه می شوند. اگر Rehberger می توانست این GPT سفارشی را ایجاد کند، به نظر می رسد که بازیگران بد به زودی می توانند این نقص را کشف کنند و GPT های سفارشی برای سرقت داده ها از اهداف خود ایجاد کنند.
رهبرگر می گوید او ابتدا تماس گرفت OpenAI در مورد “تکنیک استخراج داده” در ماه آوریل. او یک بار دیگر در ماه نوامبر با OpenAI تماس گرفت تا دقیقاً گزارش دهد که چگونه توانست یک GPT سفارشی ایجاد کند و این فرآیند را انجام دهد.
چهارشنبه، رهبرگر یک به روز رسانی ارسال کرد به وب سایت او OpenAI آسیب پذیری نشت را اصلاح کرده بود.
رهبرگر توضیح داد: «راه حل کامل نیست، بلکه گامی در مسیر درست است.
دلیل کامل نبودن این تعمیر این است که ChatGPT هنوز از طریق آسیبپذیری که Rehberger کشف کرده است، دادهها را درز میکند. هنوز هم می توان ChatGPT را برای ارسال داده فریب داد.
«برخی از آزمایشهای سریع نشان میدهد که میتوان بیتهایی از اطلاعات را به سرقت برد [sic] رهبرگر نوشت، و توضیح داد که “تنها مقادیر کمی از این طریق نشت می کند، کندتر است و برای کاربر قابل توجه تر است.”
اما، نقص امنیتی هنوز به طور کامل در برنامههای ChatGPT برای iOS و Android باقی مانده است، که هنوز با یک اصلاح بهروزرسانی نشدهاند.
کاربران ChatGPT باید هنگام استفاده از GPT های سفارشی هوشیار باشند و احتمالاً باید این برنامه های هوش مصنوعی را از اشخاص ثالث ناشناس ارسال کنند.
موضوعات
هوش مصنوعی
امنیت سایبری
ChatGPT
OpenAI
منبع: https://mashable.com/article/chatgpt-custom-gpt-data-leak-security-flaw-patch