تکنیک جدید باعث می شود توهمات هوش مصنوعی بیدار شوند و با واقعیت روبرو شوند

چت ربات ها تمایل نگران کننده ای برای تولید اطلاعات نادرست دارند، اما آن را دقیق ارائه می کنند. این پدیده که به توهمات هوش مصنوعی معروف است، اثرات نامطلوب مختلفی دارد. در بهترین حالت، مزایای هوش مصنوعی را محدود می کند. در بدترین حالت، می تواند باعث آسیب واقعی به مردم شود.

با ورود هوش مصنوعی مولد به جریان اصلی، زنگ‌های هشدار بلندتر به صدا در می‌آیند. در پاسخ، تیمی از محققان اروپایی بوده است به شدت با داروها آزمایش می کند. هفته گذشته، این تیم از یک راه حل امیدوارکننده رونمایی کرد. میگویند می تواند کاهش دهد هوش مصنوعی توهم تا درصدهای تک رقمی.

این سیستم زاییده ذهن است Iris.aiمستقر در اسلو استارت آپ. این شرکت که در سال ۲۰۱۵ تأسیس شد، یک موتور هوش مصنوعی برای درک متون علمی ساخته است. این نرم افزار مقادیر زیادی از داده های تحقیقاتی را بررسی می کند و سپس آن ها را تجزیه و تحلیل، دسته بندی و خلاصه می کند.

مشتریان شامل سازمان غذای فنلاند. سازمان دولتی استفاده شده سیستمی برای تسریع تحقیقات در مورد بحران احتمالی آنفولانزای مرغی به گفته Iris.ai، این پلتفرم ۷۵ درصد از وقت یک محقق را صرفه جویی می کند.

<3 تکنولوژی اتحادیه اروپا

آخرین اخبار از صحنه فناوری اتحادیه اروپا، داستانی از بنیانگذار پیر خردمند ما، بوریس، و برخی هنرهای مشکوک هوش مصنوعی. هر هفته در صندوق ورودی شما رایگان است. ثبت نام کن!

چیزی که در وقت آنها صرفه جویی نمی کند هوش مصنوعی است توهم آور

“کلید این است که پاسخ هایی را برگردانیم که مطابق با آنچه یک متخصص انسانی می گوید، باشد.

مدل‌های زبان بزرگ امروزی (LLM) به دلیل تفکیک اطلاعات بی‌معنی و نادرست بدنام هستند. نمونه های بی پایانی از این خروجی ها در ماه های اخیر ظاهر شده اند.

گاهی اوقات عدم دقت باعث آسیب به شهرت می شود. در نسخه ی نمایشی راه اندازی از مایکروسافت به عنوان مثال، هوش مصنوعی بینگ، سیستم تولید شده تجزیه و تحلیل پر خطا از گزارش درآمد Gap.

در مواقع دیگر، خروجی های اشتباه می تواند مضرتر باشد. ChatGPT می تواند خطرناک باشد توصیه های پزشکی تحلیلگران امنیتی ترس توهمات چت بات حتی می تواند بسته های کدهای مخرب را به سمت توسعه دهندگان نرم افزار سوق دهد.

متأسفانه، LLM ها در عبارت نویسی آنقدر خوب هستند که تشخیص توهمات از متن تولید شده با واقعیت واقعی دشوار است. ویکتور بوتف، مدیر ارشد فناوری Iris.ai به TNW می گوید. اگر این مشکل برطرف نشود، کاربران مدل‌ها باید منابع بیشتری را به اعتبارسنجی خروجی‌ها به جای تولید آن‌ها اختصاص دهند.»

توهمات هوش مصنوعی نیز ارزش هوش مصنوعی در تحقیقات را مختل می کند. در نظرسنجی Iris.ai از ۵۰۰ کارمند تحقیق و توسعه شرکتی، تنها ۲۲ درصد از پاسخ دهندگان گفتند که به سیستم هایی مانند ChatGPT اعتماد دارند. با این وجود، ۸۴ درصد از آنها هنوز از ChatGPT به عنوان ابزار اصلی هوش مصنوعی خود برای پشتیبانی از تحقیقات استفاده می کنند. ایک

این شیوه‌های مشکل‌ساز کار Iris.ai را بر روی توهمات هوش مصنوعی تحریک کرد.

هوش مصنوعی حقیقت‌سنجی

Iris.ai از چندین روش برای اندازه گیری دقت خروجی های هوش مصنوعی استفاده می کند. مهم‌ترین تکنیک تأیید صحت واقعی است.

بوتف می‌گوید: «ما مفاهیم کلیدی دانش را که انتظار داریم در پاسخ صحیح ببینیم، ترسیم می‌کنیم. سپس بررسی می کنیم که آیا پاسخ هوش مصنوعی حاوی این حقایق است و آیا آنها از منابع قابل اعتماد آمده اند یا خیر.

یک تکنیک ثانویه پاسخ تولید شده توسط هوش مصنوعی را با یک “حقیقت زمینی” تایید شده مقایسه می کند. استفاده از متریک اختصاصی دوبله شده WISDMنرم افزار شباهت معنایی خروجی هوش مصنوعی را به حقیقت زمینی نمره می دهد. این شامل بررسی موضوعات، ساختار و اطلاعات کلیدی می شود.

روش دیگر انسجام پاسخ را بررسی می کند. برای انجام این کار، Iris.ai تضمین می‌کند که خروجی، موضوعات، داده‌ها و منابع مربوطه را برای سؤال مورد نظر – به جای ورودی‌های نامرتبط، در بر می‌گیرد.

ترکیبی از تکنیک ها معیاری برای دقت واقعی ایجاد می کند.

بوتف می‌گوید: «کلید برای ما فقط بازگرداندن هر پاسخی نیست، بلکه بازگرداندن پاسخ‌هایی است که دقیقاً با آنچه یک متخصص انسانی می‌گوید مطابقت دارد.

بنیانگذاران Iris.ai (از چپ به راست) ماریا ریتولا، جاکوبو السوآ، آنیتا شول ابیلدگارد و ویکتور بوتف
بنیانگذاران Iris.ai (از چپ به راست) ماریا ریتولا، جاکوبو السوآ، آنیتا شول ابیلدگارد و ویکتور بوتف. اعتبار: Iris.ai

در زیر پوشش، سیستم Iris.ai از نمودارهای دانش استفاده می کند که نشان دادن روابط بین داده ها

نمودارهای دانش مراحلی را که یک مدل زبان برای رسیدن به خروجی های خود طی می کند، ارزیابی و نشان می دهد. اساساً، آنها زنجیره ای از افکار را ایجاد می کنند که مدل باید از آن پیروی کند.

این رویکرد فرآیند تأیید را ساده می کند. با درخواست از تابع چت یک مدل برای تقسیم درخواست ها به قسمت های کوچکتر و سپس نمایش مراحل صحیح، می توان مشکلات را شناسایی و حل کرد.

این ساختار حتی می تواند یک مدل را وادار کند تا اشتباهات خود را شناسایی و تصحیح کند. در نتیجه، یک پاسخ منسجم و واقعی می تواند به طور خودکار تولید شود.

ما باید تصمیم گیری هوش مصنوعی را از بین ببریم.

Iris.ai اکنون این فناوری را در یک ویژگی جدید Chat ادغام کرده است که به پلتفرم Researcher Workspace این شرکت اضافه شده است. در تست های اولیه، ویژگی توهمات هوش مصنوعی را به درصدهای تک رقمی کاهش داد.

اما مشکل به طور کامل حل نشده است. در حالی که این رویکرد برای محققان در پلتفرم Iris.ai موثر به نظر می رسد، این روش دشوار خواهد بود مقیاس برای LLM های محبوب. مطابق با بوتف، جچالش‌ها از فناوری سرچشمه نمی‌گیرند، بلکه از کاربران ناشی می‌شوند.

وقتی کسی انجام می دهد برای مثال، با جستجوی هوش مصنوعی Bing، آنها ممکن است دانش کمی از موضوعی که در حال بررسی آن هستند داشته باشند. در نتیجه، آنها می توانند نتایجی را که دریافت می کنند اشتباه تفسیر کنند.

بوتف می‌گوید: «افراد همیشه با جستجوی آنلاین علائم بیماری‌ها را به اشتباه تشخیص می‌دهند. “ما باید بتوانیم فرآیند تصمیم گیری هوش مصنوعی را به روشی واضح و قابل توضیح تجزیه کنیم.

آینده توهمات هوش مصنوعی

علت اصلی توهمات هوش مصنوعی مسائل مربوط به داده های آموزشی است. مایکروسافت اخیراً از یک راه حل جدید برای این مشکل رونمایی کرده است. جدید این شرکت مدل Phi-1.5 است از پیش آموزش داده شده بر روی داده های “کیفیت کتاب درسی”، که هم به صورت مصنوعی تولید شده و هم از منابع وب فیلتر شده است.

مندر تئوری، این تکنیک توهمات هوش مصنوعی را کاهش می دهد. اگر داده‌های آموزشی به خوبی ساختار یافته باشند و استدلال را تقویت کنند، باید فضای کمتری برای یک مدل برای توهم وجود داشته باشد.

روش دیگر شامل حذف سوگیری از داده ها است. برای انجام این کار، Botev آموزش یک مدل در زبان کدنویسی را پیشنهاد می کند.

در حال حاضر، بسیاری از LLM های محبوب بر روی طیف متنوعی از داده ها، از رمان ها و مقالات روزنامه گرفته تا اسناد قانونی و پست های رسانه های اجتماعی، آموزش دیده اند. به ناچار، این منابع حاوی تعصبات انسانی هستند.

در جبه زبان، تاکید بسیار بیشتری بر عقل وجود دارد. این امر فضای کمتری را برای تفسیر باقی می گذارد که می تواند LLM ها را به پاسخ های واقعی راهنمایی کند. از سوی دیگر، می تواند به کدگذاران قدرت بالقوه وحشتناکی بدهد.

«این موضوع اعتماد است.

با وجود محدودیت هایش، Iris.ai روش گامی در مسیر درست است. با استفاده از ساختار نمودار دانش، شفافیت و توضیح پذیری را می توان به هوش مصنوعی اضافه کرد.

بوتف می‌گوید: «درک گسترده‌تر از فرآیندهای مدل، و همچنین تخصص خارجی بیشتر با مدل‌های جعبه سیاه، به این معنی است که علل اصلی توهمات در همه زمینه‌ها را می‌توان زودتر شناسایی و به آن پرداخت.

CTO همچنین نسبت به پیشرفت خارجی در این زمینه خوش بین است. او به همکاری با سازندگان LLM برای ساخت مجموعه داده های بزرگتر، استنتاج نمودارهای دانش از متون، و تهیه معیارهای خودارزیابی. در آینده، این امر باعث کاهش بیشتر توهمات هوش مصنوعی خواهد شد.

برای بوتف، این کار هدفی حیاتی دارد.

او می گوید: «تا حد زیادی موضوع اعتماد است. اگر کاربران به مدلی که برای ارائه پاسخ های دقیق استفاده می کنند اعتماد نداشته باشند، چگونه می توانند از مزایای هوش مصنوعی بهره ببرند؟


منبع: https://thenextweb.com/news/ai-hallucinations-solution-iris-ai

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *