چگونه عوامل هوش مصنوعی در حال شبیه سازی تمدن بشری هستند

هوش مصنوعی (AI) مدل های زبان بزرگ (LLM) مانند OpenAIموفقیت‌های GPT-3، ۳٫۵ و ۴، اطلاعات زیادی در مورد نحوه زندگی، ارتباط و رفتار ما رمزگذاری می‌کنند و محققان دائماً راه‌های جدیدی برای استفاده از این دانش پیدا می‌کنند.

آ مطالعه اخیر انجام شده توسط محققان دانشگاه استنفورد نشان داده است که با طراحی مناسب، LLM ها می توانند برای شبیه سازی رفتار انسان به شیوه ای پویا و متقاعد کننده واقع گرایانه استفاده شوند.

این مطالعه با عنوان «عوامل مولد: شبیه‌سازی‌های تعاملی رفتار انسانی»، پتانسیل مدل‌های مولد را در ایجاد معماری عامل هوش مصنوعی که تعاملات آن را به خاطر می‌آورد، بر اطلاعات دریافتی منعکس می‌کند و اهداف بلندمدت و کوتاه‌مدت را بر اساس برنامه‌ریزی می‌کند، بررسی می‌کند. یک جریان حافظه که همیشه در حال گسترش است. این عوامل هوش مصنوعی قادر به شبیه سازی رفتار یک انسان در زندگی روزمره خود، از وظایف پیش پا افتاده تا فرآیندهای پیچیده تصمیم گیری هستند.

علاوه بر این، هنگامی که این عوامل با هم ترکیب شوند، می توانند رفتارهای اجتماعی پیچیده تری را که از تعاملات یک جمعیت بزرگ پدید می آید، تقلید کنند. این کار فرصت‌های زیادی را به‌ویژه در شبیه‌سازی پویایی جمعیت، ارائه بینش‌های ارزشمند در مورد رفتارها و تعاملات اجتماعی باز می‌کند.

یک محیط مجازی برای عوامل مولد

در این مطالعه، محققان عوامل مولد را در Smallville شبیه‌سازی کردند، یک محیط بازی sandbox متشکل از اشیاء مختلف مانند بوفه‌ها، مدارس، بارها و موارد دیگر.

این محیط توسط ۲۵ عامل مولد که توسط یک LLM طراحی شده است، ساکن شده است. LLM با یک اعلان آغاز می شود که شامل شرح مفصلی از رفتار، شغل، ترجیحات، خاطرات و روابط عامل با سایر عوامل است. خروجی LLM رفتار عامل است.

عامل ها از طریق کنش ها با محیط خود تعامل دارند. در ابتدا، آنها یک بیانیه عمل به زبان طبیعی تولید می کنند، مانند “ایزابلا در حال نوشیدن قهوه است”. این بیانیه سپس به حرکات ملموس در اسمال ویل ترجمه می شود.

علاوه بر این، عوامل از طریق گفتگوی زبان طبیعی با یکدیگر ارتباط برقرار می کنند. مکالمات آنها تحت تأثیر خاطرات قبلی و تعاملات گذشته آنها است.

کاربران انسانی همچنین می توانند با صحبت کردن با آنها از طریق صدای راوی، تغییر وضعیت محیط یا کنترل مستقیم یک عامل، با آنها تعامل داشته باشند. طراحی تعاملی برای ایجاد یک محیط پویا با امکانات زیاد است.

یادآوری و تأمل

هر عامل در محیط SmallVille مجهز به یک جریان حافظه است، یک پایگاه داده جامع که تجربیات عامل را به زبان طبیعی ثبت می کند. این جریان حافظه نقش تعیین کننده ای در رفتار عامل دارد.

برای هر عمل، عامل رکوردهای حافظه مربوطه را بازیابی می کند تا به برنامه ریزی آن کمک کند. به عنوان مثال، اگر یک عامل برای بار دوم با عامل دیگری روبرو شود، سوابق تعاملات گذشته با آن عامل را بازیابی می کند. این به نماینده اجازه می دهد تا مکالمات قبلی را پیگیری کند یا کارهایی را که باید با هم تکمیل شوند پیگیری کند.

با این حال، بازیابی حافظه یک چالش مهم است. با افزایش طول شبیه سازی، جریان حافظه عامل طولانی تر می شود. قرار دادن کل جریان حافظه در زمینه LLM می تواند حواس مدل را پرت کند. و هنگامی که جریان حافظه بیش از حد طولانی شود، در پنجره زمینه LLM قرار نمی گیرد. بنابراین، برای هر تعامل با LLM، عامل باید مرتبط ترین بیت ها را از جریان حافظه بازیابی کند و آنها را به عنوان زمینه در اختیار مدل قرار دهد.

برای پرداختن به این موضوع، محققان یک تابع بازیابی طراحی کردند که ارتباط هر قطعه از حافظه عامل را با وضعیت فعلی خود می سنجد. ارتباط هر حافظه با مقایسه جاسازی آن با وضعیت فعلی اندازه گیری می شود.تعبیه ها مقادیر عددی هستند که معانی مختلف متن را نشان می دهند و برای جستجوی شباهت استفاده می شوند). تازگی حافظه نیز مهم است، به این معنی که خاطرات اخیر ارتباط بیشتری دارند.

علاوه بر این، محققان تابعی را طراحی کردند که به طور دوره‌ای بخش‌هایی از جریان حافظه را در افکار انتزاعی سطح بالاتر خلاصه می‌کند که به آنها «بازتاب» گفته می‌شود. این بازتاب‌ها لایه‌هایی را روی هم تشکیل می‌دهند و به تصویر ظریف‌تری از شخصیت و ترجیحات عامل کمک می‌کنند و کیفیت بازیابی حافظه را برای اقدامات آینده افزایش می‌دهند.

حافظه و بازتاب‌ها، سیستم هوش مصنوعی را قادر می‌سازد تا یک درخواست غنی برای LLM ایجاد کند، که سپس از آن برای برنامه‌ریزی اقدامات هر عامل استفاده می‌کند.

به کار انداختن عوامل

برنامه ریزی یکی دیگر از جنبه های جذاب پروژه است. محققان باید سیستمی را ابداع می کردند که عوامل را قادر می ساخت تا اقدامات مستقیم را انجام دهند و در عین حال قادر به برنامه ریزی طولانی مدت باشند. برای رسیدن به این هدف، آنها یک رویکرد سلسله مراتبی را در برنامه ریزی اتخاذ کردند.

مدل ابتدا خلاصه‌ای از وضعیت عامل دریافت می‌کند و از او خواسته می‌شود یک برنامه سطح بالا برای یک هدف بلندمدت ایجاد کند. سپس به صورت بازگشتی هر مرحله را انجام می دهد و اقدامات دقیق تری را، ابتدا در برنامه های ساعتی، و سپس در کارهای ۵-۱۵ دقیقه ای ایجاد می کند. عوامل نیز با تغییر محیط و مشاهده موقعیت های جدید یا تعامل با سایر عوامل، برنامه های خود را به روز می کنند. این رویکرد پویا به برنامه ریزی تضمین می کند که عوامل می توانند با محیط خود سازگار شوند و با آن به شیوه ای واقع بینانه و قابل باور تعامل داشته باشند.

وقتی شبیه سازی اجرا می شود چه اتفاقی می افتد؟ هر عاملی با دانش اولیه، روال روزانه و اهدافی که باید انجام دهد شروع می کند. آنها این اهداف را برنامه ریزی و اجرا می کنند و با یکدیگر تعامل دارند. از طریق این تعاملات، عوامل ممکن است اطلاعات را به یکدیگر منتقل کنند. با انتشار اطلاعات جدید در میان جمعیت، رفتار جامعه تغییر می کند. عوامل با تغییر یا تعدیل برنامه ها و اهداف خود با آگاهی از رفتار سایر عوامل واکنش نشان می دهند.

آزمایش‌های محققان نشان می‌دهد که عوامل مولد یاد می‌گیرند که بین خود هماهنگ شوند بدون اینکه به صراحت این کار را به آنها دستور داده شود. مثلا یکی از ماموران با هدف برگزاری جشن ولنتاین شروع به کار کرد. این اطلاعات در نهایت به سایر عوامل رسید و تعدادی از آنها در مهمانی شرکت کردند. (دمو انجام شده است آنلاین منتشر شد.)

علیرغم نتایج چشمگیر مطالعه، اذعان به محدودیت های این تکنیک مهم است. عوامل مولد، در حالی که از دیگر روش‌های مبتنی بر LLM در شبیه‌سازی رفتار انسان پیشی می‌گیرند، گاهی اوقات در بازیابی حافظه دچار تزلزل می‌شوند. آنها ممکن است خاطرات مربوطه را نادیده بگیرند یا برعکس، با افزودن جزئیات ناموجود به خاطرات خود، “توهم” کنند. این می تواند منجر به ناهماهنگی در رفتار و تعامل آنها شود.

علاوه بر این، محققان به یک ویژگی غیرمنتظره در رفتار ماموران اشاره کردند: آنها بیش از حد مؤدب و همکاری بودند. در حالی که این ویژگی ها ممکن است در یک دستیار هوش مصنوعی مطلوب باشد، آنها به طور دقیق طیف کامل رفتار انسان را که شامل تعارض و اختلاف است، منعکس نمی کنند.

شبیه سازی رفتار انسان

این مطالعه باعث جلب توجه جامعه پژوهشی شده است. اخیراً محققان استنفورد کد منبع را منتشر کرد برای محیط مجازی و عوامل مولد آنها.

این به سایر محققان اجازه داده است تا بر اساس کار خود، با نهادهای برجسته مانند شرکت سرمایه‌دار معروف Andreessen Horowitz (a16z) کار خود را توسعه دهند. نسخه های خود از محیط.

در حالی که عوامل مجازی اسمال ویل سرگرم کننده هستند، محققان معتقدند کار آنها کاربردهای گسترده و عملی دارد.

یکی از این برنامه ها، نمونه سازی پویایی در محصولات پرمصرف مانند شبکه های اجتماعی است. محققان امیدوارند که این مدل‌های مولد بتوانند به پیش‌بینی و کاهش پیامدهای منفی، مانند انتشار اطلاعات نادرست یا ترولینگ کمک کنند. با ایجاد یک جمعیت متنوع از عوامل و مشاهده تعاملات آنها در زمینه یک محصول، محققان می توانند رفتارهای نوظهور، مثبت و منفی را مطالعه کنند. عوامل همچنین می توانند برای آزمایش با خلاف واقع ها و شبیه سازی اینکه چگونه سیاست ها و اصلاحات مختلف در رفتار می توانند نتایج را تغییر دهند مورد استفاده قرار گیرند. این مفهوم اساس شبیه‌سازی‌های اجتماعی را تشکیل می‌دهد.

با این حال، پتانسیل عوامل مولد بدون خطر نیست. آنها می توانند برای ایجاد ربات هایی استفاده شوند که به طور متقاعدکننده ای از انسان های واقعی تقلید می کنند و به طور بالقوه فعالیت های مخرب مانند انتشار اطلاعات نادرست در مقیاس بزرگ را تقویت می کنند. برای مقابله با این، محققان پیشنهاد می‌کنند که گزارش‌های حسابرسی رفتارهای نمایندگان را برای ارائه سطحی از شفافیت و پاسخگویی حفظ کنند.

محققان می نویسند: «با نگاهی به آینده، ما پیشنهاد می کنیم که عوامل مولد می توانند در بسیاری از برنامه های کاربردی تعاملی، از ابزارهای طراحی گرفته تا سیستم های محاسباتی اجتماعی و محیط های فراگیر، نقش داشته باشند.

ماموریت VentureBeat این است که یک میدان شهر دیجیتال برای تصمیم گیرندگان فنی باشد تا دانشی در مورد فناوری سازمانی متحول کننده کسب کنند و معامله کنند. جلسات توجیهی ما را کشف کنید.


منبع: https://venturebeat.com/business/how-ai-agents-are-already-simulating-human-civilization/

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *