چگونه یک شرکت جاسوس‌افزار روسی ChatGPT را هک کرد و آن را به جاسوسی از کاربران اینترنت تبدیل کرد

در یک گزارش تحقیقاتی اخیر، فوربس فاش کرد که Social Links، یک شرکت جاسوس‌افزار روسی که قبلاً به دلیل فعالیت‌های جاسوسی ادعایی از پلتفرم‌های متا منع شده بود، ChatGPT را برای جاسوسی از افرادی که از اینترنت استفاده می‌کنند، انتخاب کرده است.

این افشاگری ناراحت کننده ChatGPT که شامل جمع آوری و تجزیه و تحلیل داده های رسانه های اجتماعی برای سنجش احساسات کاربران است، بعد بحث برانگیز دیگری را به موارد استفاده ChatGPT اضافه می کند.

Social Links با ارائه استفاده غیرمتعارف خود از ChatGPT در یک کنفرانس امنیتی در پاریس، مهارت چت بات را در خلاصه سازی و تجزیه و تحلیل متن به نمایش گذاشت. این شرکت با تغذیه داده‌هایی که از طریق ابزار اختصاصی آن مربوط به بحث‌های آنلاین درباره بحث‌های اخیر در اسپانیا به دست آمده بود، نشان داد که چگونه ChatGPT می‌تواند به سرعت احساسات را به عنوان مثبت، منفی یا خنثی پردازش و طبقه‌بندی کند. سپس نتایج با استفاده از یک نمودار تعاملی ارائه شد.

با این حال، طرفداران حریم خصوصی این پیشرفت را عمیقاً نگران کننده می دانند. فراتر از نگرانی های فوری مطرح شده توسط این مورد خاص، نگرانی گسترده تری در مورد پتانسیل هوش مصنوعی برای تقویت قابلیت های صنعت نظارت وجود دارد.

روری میر، معاون مدیر سازمان‌دهی جامعه در بنیاد Electronic Frontier، ابراز نگرانی کرد که هوش مصنوعی می‌تواند مجریان قانون را قادر سازد تا تلاش‌های نظارتی را گسترش دهند و به تیم‌های کوچک‌تر اجازه دهد تا گروه‌های بزرگ‌تر را به طور مؤثرتر نظارت کنند.

میر رویه موجود آژانس‌های پلیس را که از پروفایل‌های جعلی برای نفوذ به جوامع آنلاین استفاده می‌کنند، برجسته کرد، که باعث ایجاد یک اثر وحشتناک بر سخنرانی آنلاین می‌شود. با ادغام هوش مصنوعی، میر هشدار داد که ابزارهایی مانند ChatGPT می‌توانند تجزیه و تحلیل سریع‌تر داده‌های جمع‌آوری‌شده در طول عملیات‌های مخفی را تسهیل کنند و به طور موثر نظارت آنلاین را فعال و تشدید کنند.

ایراد قابل توجهی که میر به آن اشاره کرد سابقه چت ربات هایی است که نتایج نادرست ارائه می دهند. در سناریوهای پرمخاطره مانند عملیات اجرای قانون، اتکا به هوش مصنوعی مخاطره آمیز می شود.

میر تاکید کرد که وقتی هوش مصنوعی بر تصمیم‌های حیاتی مانند درخواست‌های شغلی یا توجه پلیس تأثیر می‌گذارد، سوگیری‌های ذاتی در داده‌های آموزشی – که اغلب از پلتفرم‌هایی مانند Reddit و ۴chan منشأ می‌گیرند – نه تنها به عواملی تبدیل می‌شوند که باید در نظر گرفته شوند، بلکه دلایلی برای بازنگری در استفاده از هوش مصنوعی در چنین زمینه‌هایی می‌شوند.

ماهیت مبهم داده های آموزشی هوش مصنوعی، که به آن “جعبه سیاه” گفته می شود، لایه دیگری از نگرانی را اضافه می کند. میر خاطرنشان کرد که سوگیری‌های داده‌های زیربنایی، که از پلتفرم‌هایی که به نظرات مختلف و اغلب افراطی معروف هستند، سرچشمه می‌گیرد، ممکن است در خروجی‌های الگوریتم آشکار شود و پاسخ‌های آن را به طور بالقوه غیرقابل اعتماد کند.

چشم انداز در حال تکامل برنامه های کاربردی هوش مصنوعی در نظارت، سؤالات مهمی را در مورد اخلاق، تعصبات و تأثیر بالقوه بر آزادی های فردی و حریم خصوصی ایجاد می کند.

(با نظر آژانس ها)


منبع: https://www.firstpost.com/tech/how-a-russian-spyware-company-hacked-chatgpt-turned-it-to-spy-on-internet-users-13407192.html

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *