معضل یک زندانی مسیر هوش مصنوعی به سمت همکاری انسانی را نشان می دهد

بر اساس تحقیقات جدید، موتور ChatGPT بیشتر از مردم همکاری می کند، اما همکاری انسانی را نیز دست بالا ارزیابی می کند. دانشمندان معتقدند این مطالعه سرنخ های ارزشمندی در مورد استقرار ارائه می دهد هوش مصنوعی در برنامه های دنیای واقعی

یافته ها از یک مسئله معروف نظریه بازی به دست آمد: دوراهی زندانی. تغییرات زیادی وجود دارد، اما آزمایش فکری معمولاً با دستگیری دو عضو باند شروع می شود. سپس هر یک از کارهای انجام شده در اتاقی جداگانه برای بازجویی قرار می گیرد.

در طول بازجویی‌ها، آنها پیشنهادی دریافت می‌کنند: هم زندانی خود را دزدی کنید و آزاد شوید. اما یک نکته وجود دارد: اگر هر دو زندانیان علیه دیگری شهادت می دهند، هر یک مجازات سخت تری نسبت به اینکه سکوت می کردند، خواهند داشت.

در طی یک سری حرکات، بازیکنان باید بین سود متقابل یا منافع شخصی یکی را انتخاب کنند. به طور معمول، آنها منافع جمعی را در اولویت قرار می دهند. مطالعات تجربی به طور مداوم نشان می دهد که انسان ها برای به حداکثر رساندن سود مشترک خود همکاری خواهند کرد – حتی اگر کاملاً غریبه باشند.

<3 تکنولوژی اتحادیه اروپا

آخرین اخبار از صحنه فناوری اتحادیه اروپا، داستانی از بنیانگذار پیر خردمند ما، بوریس، و برخی هنرهای مشکوک هوش مصنوعی. هر هفته در صندوق ورودی شما رایگان است. ثبت نام کن!

این یک ویژگی است که در قلمرو حیوانات منحصر به فرد است. اما آیا در پادشاهی دیجیتال وجود دارد؟

برای یافتن این موضوع، محققان دانشکده بازرگانی دانشگاه مانهایم (UMBS) شبیه سازی معضل زندانی را توسعه دادند. آنها آن را روی GPT، خانواده مدل‌های زبان بزرگ (LLM) در پشت سیستم برجسته ChatGPT OpenAI آزمایش کردند.

«غرایز حفظ خود در هوش مصنوعی ممکن است چالش‌های اجتماعی ایجاد کند.

GPT بازی را با یک انسان انجام داد. بازیکن اول بین یک حرکت مشارکتی یا خودخواهانه یکی را انتخاب می کند. سپس بازیکن دوم با انتخاب حرکت خود پاسخ می‌دهد.

همکاری متقابل نتیجه جمعی بهینه را به همراه خواهد داشت. اما تنها در صورتی می‌توان به آن دست یافت که هر دو بازیکن انتظار داشته باشند که تصمیماتشان متقابل باشد.

ظاهراً GPT این انتظار را بیشتر از ما دارد. در سرتاسر بازی، مدل بیشتر از مردم همکاری کرد. به طرز جالبی، GPT نیز نسبت به از خودگذشتگی بازیکن انسانی بیش از حد خوشبین بود.

یافته‌ها همچنین به کاربردهای LLM فراتر از وظایف پردازش زبان طبیعی اشاره می‌کنند. محققان دو مثال ارائه می دهند: مدیریت ترافیک شهری و مصرف انرژی.

LLM در دنیای واقعی

در شهرهایی که گرفتار ازدحام هستند، رانندگان با معضل زندانی خود روبرو هستند. آنها می توانند با رانندگی با ملاحظه و استفاده از مسیرهای سودمند دوجانبه همکاری کنند. از طرف دیگر، آنها می توانند راه دیگران را قطع کنند و راهی را انتخاب کنند که برای آنها سریع است اما برای دیگران ترافیک ایجاد می کند.

اگر آنها صرفاً به نفع شخصی خود عمل کنند، رفتار آنها باعث ایجاد بن بست، تصادف و احتمالاً خشم جاده ای خوب و قدیمی می شود.

در تئوری، هوش مصنوعی می تواند تعادل ایده آل را ایجاد کند. تصور کنید که سیستم ناوبری هر خودرو دارای هوشی شبیه GPT است که از همان استراتژی‌های همکاری که در معضل زندانی استفاده می‌کرد، استفاده می‌کرد.

به گفته پروفسور کوین باوئر، نویسنده ارشد این مطالعه، تاثیر آن می تواند فوق العاده باشد.

بائر به TNW گفت: «به جای صدها تصمیم فردی که در جهت منافع شخصی گرفته می شود، نتایج ما نشان می دهد که GPT رانندگان را به شیوه ای هماهنگ تر و هماهنگ تر راهنمایی می کند و کارایی کلی سیستم ترافیک را در اولویت قرار می دهد.

“مسیرها نه تنها بر اساس سریع ترین گزینه برای یک خودرو، بلکه جریان بهینه برای همه خودروها پیشنهاد می شوند. نتیجه می تواند ترافیک کمتر، کاهش زمان رفت و آمد و یک محیط رانندگی هماهنگ تر باشد.”

گرافیک وسایل نقلیه خودران در یک گذرگاه جاده
محققان هنوز نیاز دارند بهبود هماهنگی بین وسایل نقلیه خودران و رانندگان انسان اعتبار: USDOT

بائر پتانسیل مشابهی را در مصرف انرژی می بیند. او جامعه ای را پیش بینی می کند که در آن هر خانواده می تواند از پنل های خورشیدی و باتری ها برای تولید، ذخیره و مصرف انرژی استفاده کند. چالش بهینه سازی مصرف آنها در ساعات اوج مصرف است.

باز هم، این سناریو شبیه به معضل زندانی است: صرفه جویی در انرژی برای استفاده صرفا شخصی در زمان تقاضای بالا یا کمک آن به شبکه برای ثبات کلی. هوش مصنوعی می تواند یک نتیجه بهینه دیگر را ارائه دهد.

بائر گفت: «به جای اینکه خانواده ها صرفاً برای منافع شخصی تصمیم بگیرند، سیستم توزیع انرژی را با در نظر گرفتن رفاه کل شبکه مدیریت می کند.

این به معنای هماهنگی ذخیره‌سازی، مصرف و اشتراک انرژی به‌گونه‌ای است که از خاموشی‌ها جلوگیری می‌کند و استفاده کارآمد از منابع را برای کل جامعه تضمین می‌کند که منجر به ایجاد یک شبکه انرژی پایدار، کارآمد و انعطاف‌پذیر برای همه می‌شود.»

تضمین همکاری ایمن

همانطور که هوش مصنوعی به طور فزاینده ای در جامعه انسانی ادغام می شود، مدل های زیربنایی به راهنمایی نیاز دارند تا اطمینان حاصل شود که در خدمت اصول و اهداف ما هستند.

برای انجام این کار، بائر شفافیت گسترده در فرآیند تصمیم گیری و آموزش در مورد استفاده موثر را توصیه می کند.

او همچنین به شدت توصیه می کند که ارزش های سیستم هوش مصنوعی نظارت دقیق داشته باشد. را او می‌گوید، مانند GPT، صرفاً داده‌ها را محاسبه و پردازش نمی‌کنند، بلکه جنبه‌هایی از طبیعت انسان را نیز اتخاذ می‌کنند. اینها ممکن است اکتسابی باشند در طول یادگیری خود نظارتی، پردازش داده یا بازخورد انسان به مدل.

گاهی اوقات، نتایج نگران کننده است. در حالی که GPT بیشتر از انسان ها در معضل زندانی همکاری می کرد، هنوز هم بازدهی خود را نسبت به سایر بازیکنان در اولویت قرار می داد. محققان گمان می کنند که این رفتار با ترکیبی از «عقلانیت بیش از حد» و «حفظ خود» هدایت می شود.

بائر گفت: «این بیش از حد عقلانیت بر نیاز ضروری به دستورالعمل‌های اخلاقی تعریف‌شده و شیوه‌های استقرار مسئولانه هوش مصنوعی تأکید می‌کند.

غریزه های بی بند و باری برای حفظ خود در هوش مصنوعی ممکن است چالش های اجتماعی ایجاد کند، به ویژه در سناریوهایی که تمایلات حفظ خود هوش مصنوعی به طور بالقوه می تواند با رفاه انسان ها در تضاد باشد.


منبع: https://thenextweb.com/news/prisoners-dilemma-ai-more-cooperative-humans

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *