مطالعه آکسفورد هشدار می دهد که توهمات هوش مصنوعی “تهدید مستقیم” برای علم است

مدل‌های زبان بزرگ (LLM) – مانند آنهایی که در ربات‌های گفتگو استفاده می‌شوند – هشداردهنده هستند تمایل به توهم. یعنی محتوای نادرستی تولید کنند که به عنوان دقیق ارائه کنند. اینها هوش مصنوعی محققان مؤسسه اینترنت آکسفورد هشدار می دهند که توهمات، در میان سایر خطرات، تهدیدی مستقیم برای علم و حقیقت علمی است.

بر اساس مقاله آنها، منتشر شده در طبیعت رفتار انسانLLM ها برای ایجاد پاسخ های مفید و قانع کننده بدون هیچ گونه ضمانت اساسی در مورد صحت یا همسویی آنها با واقعیت طراحی شده اند.

LLM ها در حال حاضر به عنوان منابع دانش تلقی می شوند و در پاسخ به سؤالات یا درخواست ها اطلاعات تولید می کنند. اما داده هایی که آنها بر روی آنها آموزش دیده اند لزوما از نظر واقعی درست نیستند. یکی از دلایل این امر این است که این مدل ها اغلب از منابع آنلاین استفاده می کنند که می تواند حاوی اظهارات نادرست، نظرات و اطلاعات نادرست باشد.

پروفسور برنت میتلشتات، یکی از نویسندگان مقاله توضیح داد: «افرادی که از LLM استفاده می‌کنند، اغلب این فناوری را انسان‌سازی می‌کنند، جایی که به آن به عنوان یک منبع اطلاعاتی شبیه انسان اعتماد می‌کنند.

“این تا حدی به دلیل طراحی LLM ها به عنوان عوامل مفید و انسانی است که با کاربران گفتگو می کنند و به ظاهر هر سوالی را با صدایی مطمئن و متنی خوب پاسخ می دهند. نتیجه این است که کاربران به راحتی می توانند متقاعد شوند که پاسخ‌ها دقیق هستند حتی زمانی که هیچ مبنایی در واقعیت نداشته باشند یا روایتی جانبدارانه یا جزئی از حقیقت ارائه دهند.

وقتی صحبت از علم و آموزش به میان می‌آید، دقت اطلاعات از اهمیت حیاتی برخوردار است و محققان جامعه علمی را ترغیب می‌کنند که از LLM به عنوان «مترجم صفر شات» استفاده کنند. این بدان معناست که کاربران باید داده‌های مناسب را در اختیار مدل قرار دهند و بخواهند آن را به یک نتیجه یا کد تبدیل کنند، به‌عنوان مثال – به جای تکیه بر خود مدل به عنوان منبع دانش.

به این ترتیب بررسی اینکه خروجی از نظر واقعی درست است و با ورودی ارائه شده مطابقت دارد آسان تر می شود.

به گفته اساتید آکسفورد، LLM بدون شک به گردش کار علمی کمک خواهد کرد. اما برای جامعه بسیار مهم است که از آنها به طور مسئولانه استفاده کند و انتظارات روشنی در مورد نحوه مشارکت واقعی آنها حفظ کند.


منبع: https://thenextweb.com/news/ai-hallucinations-pose-direct-threat-science

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *