OpenAI وصله نشت داده ChatGPT را منتشر می کند، اما مشکل به طور کامل برطرف نشده است

ما آن را گفته ایم قبل از و خب گفتن آی تی از نو: چیزی را در ChatGPT وارد نکنید که نمی‌خواهید طرف‌های غیرمجاز بخوانند.

از زمانی که OpenAI ChatGPT را در سال گذشته منتشر کرد، موارد زیادی وجود داشته است که نقص‌های چت ربات هوش مصنوعی توسط بازیگران بد برای دسترسی به داده‌های حساس یا خصوصی مورد استفاده قرار گرفته یا دستکاری شده است. و این آخرین مثال نشان می دهد که حتی پس از انتشار یک وصله امنیتی، مشکلات همچنان ممکن است پابرجا باشند.

بر اساس گزارشی که توسط بلیپ کامپیوترOpenAI اخیراً راه حلی را برای مشکلی که ChatGPT می‌تواند اطلاعات کاربران را به اشخاص ثالث غیرمجاز نشت کند، ارائه کرده است. این داده‌ها می‌تواند شامل مکالمات کاربر با ChatGPT و ابرداده‌های مربوطه مانند شناسه کاربر و اطلاعات جلسه باشد.

با این حال، به گفته محققان امنیتی یوهان رهبرگرکه در ابتدا این آسیب‌پذیری را کشف کرد و نحوه عملکرد آن را تشریح کرد، هنوز حفره‌های امنیتی خالی در اصلاح OpenAI وجود دارد. در اصل، نقص امنیتی هنوز وجود دارد.

نشت داده های ChatGPT

Rehberger توانست از مزایای OpenAI که اخیراً منتشر شده و بسیار مورد تحسین قرار گرفته است، استفاده کند GPT های سفارشی ویژگی برای ایجاد GPT خود، که داده ها را از ChatGPT استخراج می کند. این یک یافته قابل توجه بود زیرا GPT های سفارشی به عنوان برنامه های هوش مصنوعی شبیه به اینکه چگونه آیفون انقلابی در برنامه های تلفن همراه با فروشگاه App ایجاد کرد، به بازار عرضه می شوند. اگر Rehberger می توانست این GPT سفارشی را ایجاد کند، به نظر می رسد که بازیگران بد به زودی می توانند این نقص را کشف کنند و GPT های سفارشی برای سرقت داده ها از اهداف خود ایجاد کنند.

رهبرگر می گوید او ابتدا تماس گرفت OpenAI در مورد “تکنیک استخراج داده” در ماه آوریل. او یک بار دیگر در ماه نوامبر با OpenAI تماس گرفت تا دقیقاً گزارش دهد که چگونه توانست یک GPT سفارشی ایجاد کند و این فرآیند را انجام دهد.

چهارشنبه، رهبرگر یک به روز رسانی ارسال کرد به وب سایت او OpenAI آسیب پذیری نشت را اصلاح کرده بود.

رهبرگر توضیح داد: «راه حل کامل نیست، بلکه گامی در مسیر درست است.

دلیل کامل نبودن این تعمیر این است که ChatGPT هنوز از طریق آسیب‌پذیری که Rehberger کشف کرده است، داده‌ها را درز می‌کند. هنوز هم می توان ChatGPT را برای ارسال داده فریب داد.

«برخی از آزمایش‌های سریع نشان می‌دهد که می‌توان بیت‌هایی از اطلاعات را به سرقت برد [sic] رهبرگر نوشت، و توضیح داد که “تنها مقادیر کمی از این طریق نشت می کند، کندتر است و برای کاربر قابل توجه تر است.”

اما، نقص امنیتی هنوز به طور کامل در برنامه‌های ChatGPT برای iOS و Android باقی مانده است، که هنوز با یک اصلاح به‌روزرسانی نشده‌اند.

کاربران ChatGPT باید هنگام استفاده از GPT های سفارشی هوشیار باشند و احتمالاً باید این برنامه های هوش مصنوعی را از اشخاص ثالث ناشناس ارسال کنند.


منبع: https://mashable.com/article/chatgpt-custom-gpt-data-leak-security-flaw-patch

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *