مدلهای زبان بزرگ (LLM) – مانند آنهایی که در رباتهای گفتگو استفاده میشوند – هشداردهنده هستند تمایل به توهم. یعنی محتوای نادرستی تولید کنند که به عنوان دقیق ارائه کنند. اینها هوش مصنوعی محققان مؤسسه اینترنت آکسفورد هشدار می دهند که توهمات، در میان سایر خطرات، تهدیدی مستقیم برای علم و حقیقت علمی است.
بر اساس مقاله آنها، منتشر شده در طبیعت رفتار انسانLLM ها برای ایجاد پاسخ های مفید و قانع کننده بدون هیچ گونه ضمانت اساسی در مورد صحت یا همسویی آنها با واقعیت طراحی شده اند.
LLM ها در حال حاضر به عنوان منابع دانش تلقی می شوند و در پاسخ به سؤالات یا درخواست ها اطلاعات تولید می کنند. اما داده هایی که آنها بر روی آنها آموزش دیده اند لزوما از نظر واقعی درست نیستند. یکی از دلایل این امر این است که این مدل ها اغلب از منابع آنلاین استفاده می کنند که می تواند حاوی اظهارات نادرست، نظرات و اطلاعات نادرست باشد.
پروفسور برنت میتلشتات، یکی از نویسندگان مقاله توضیح داد: «افرادی که از LLM استفاده میکنند، اغلب این فناوری را انسانسازی میکنند، جایی که به آن به عنوان یک منبع اطلاعاتی شبیه انسان اعتماد میکنند.
“این تا حدی به دلیل طراحی LLM ها به عنوان عوامل مفید و انسانی است که با کاربران گفتگو می کنند و به ظاهر هر سوالی را با صدایی مطمئن و متنی خوب پاسخ می دهند. نتیجه این است که کاربران به راحتی می توانند متقاعد شوند که پاسخها دقیق هستند حتی زمانی که هیچ مبنایی در واقعیت نداشته باشند یا روایتی جانبدارانه یا جزئی از حقیقت ارائه دهند.
وقتی صحبت از علم و آموزش به میان میآید، دقت اطلاعات از اهمیت حیاتی برخوردار است و محققان جامعه علمی را ترغیب میکنند که از LLM به عنوان «مترجم صفر شات» استفاده کنند. این بدان معناست که کاربران باید دادههای مناسب را در اختیار مدل قرار دهند و بخواهند آن را به یک نتیجه یا کد تبدیل کنند، بهعنوان مثال – به جای تکیه بر خود مدل به عنوان منبع دانش.
به این ترتیب بررسی اینکه خروجی از نظر واقعی درست است و با ورودی ارائه شده مطابقت دارد آسان تر می شود.
به گفته اساتید آکسفورد، LLM بدون شک به گردش کار علمی کمک خواهد کرد. اما برای جامعه بسیار مهم است که از آنها به طور مسئولانه استفاده کند و انتظارات روشنی در مورد نحوه مشارکت واقعی آنها حفظ کند.
منبع: https://thenextweb.com/news/ai-hallucinations-pose-direct-threat-science