در یک گزارش تحقیقاتی اخیر، فوربس فاش کرد که Social Links، یک شرکت جاسوسافزار روسی که قبلاً به دلیل فعالیتهای جاسوسی ادعایی از پلتفرمهای متا منع شده بود، ChatGPT را برای جاسوسی از افرادی که از اینترنت استفاده میکنند، انتخاب کرده است.
این افشاگری ناراحت کننده ChatGPT که شامل جمع آوری و تجزیه و تحلیل داده های رسانه های اجتماعی برای سنجش احساسات کاربران است، بعد بحث برانگیز دیگری را به موارد استفاده ChatGPT اضافه می کند.
Social Links با ارائه استفاده غیرمتعارف خود از ChatGPT در یک کنفرانس امنیتی در پاریس، مهارت چت بات را در خلاصه سازی و تجزیه و تحلیل متن به نمایش گذاشت. این شرکت با تغذیه دادههایی که از طریق ابزار اختصاصی آن مربوط به بحثهای آنلاین درباره بحثهای اخیر در اسپانیا به دست آمده بود، نشان داد که چگونه ChatGPT میتواند به سرعت احساسات را به عنوان مثبت، منفی یا خنثی پردازش و طبقهبندی کند. سپس نتایج با استفاده از یک نمودار تعاملی ارائه شد.
با این حال، طرفداران حریم خصوصی این پیشرفت را عمیقاً نگران کننده می دانند. فراتر از نگرانی های فوری مطرح شده توسط این مورد خاص، نگرانی گسترده تری در مورد پتانسیل هوش مصنوعی برای تقویت قابلیت های صنعت نظارت وجود دارد.
روری میر، معاون مدیر سازماندهی جامعه در بنیاد Electronic Frontier، ابراز نگرانی کرد که هوش مصنوعی میتواند مجریان قانون را قادر سازد تا تلاشهای نظارتی را گسترش دهند و به تیمهای کوچکتر اجازه دهد تا گروههای بزرگتر را به طور مؤثرتر نظارت کنند.
میر رویه موجود آژانسهای پلیس را که از پروفایلهای جعلی برای نفوذ به جوامع آنلاین استفاده میکنند، برجسته کرد، که باعث ایجاد یک اثر وحشتناک بر سخنرانی آنلاین میشود. با ادغام هوش مصنوعی، میر هشدار داد که ابزارهایی مانند ChatGPT میتوانند تجزیه و تحلیل سریعتر دادههای جمعآوریشده در طول عملیاتهای مخفی را تسهیل کنند و به طور موثر نظارت آنلاین را فعال و تشدید کنند.
ایراد قابل توجهی که میر به آن اشاره کرد سابقه چت ربات هایی است که نتایج نادرست ارائه می دهند. در سناریوهای پرمخاطره مانند عملیات اجرای قانون، اتکا به هوش مصنوعی مخاطره آمیز می شود.
میر تاکید کرد که وقتی هوش مصنوعی بر تصمیمهای حیاتی مانند درخواستهای شغلی یا توجه پلیس تأثیر میگذارد، سوگیریهای ذاتی در دادههای آموزشی – که اغلب از پلتفرمهایی مانند Reddit و ۴chan منشأ میگیرند – نه تنها به عواملی تبدیل میشوند که باید در نظر گرفته شوند، بلکه دلایلی برای بازنگری در استفاده از هوش مصنوعی در چنین زمینههایی میشوند.
ماهیت مبهم داده های آموزشی هوش مصنوعی، که به آن “جعبه سیاه” گفته می شود، لایه دیگری از نگرانی را اضافه می کند. میر خاطرنشان کرد که سوگیریهای دادههای زیربنایی، که از پلتفرمهایی که به نظرات مختلف و اغلب افراطی معروف هستند، سرچشمه میگیرد، ممکن است در خروجیهای الگوریتم آشکار شود و پاسخهای آن را به طور بالقوه غیرقابل اعتماد کند.
چشم انداز در حال تکامل برنامه های کاربردی هوش مصنوعی در نظارت، سؤالات مهمی را در مورد اخلاق، تعصبات و تأثیر بالقوه بر آزادی های فردی و حریم خصوصی ایجاد می کند.
(با نظر آژانس ها)
منبع: https://www.firstpost.com/tech/how-a-russian-spyware-company-hacked-chatgpt-turned-it-to-spy-on-internet-users-13407192.html