هوش مصنوعی (AI) مدل های زبان بزرگ (LLM) مانند OpenAIموفقیتهای GPT-3، ۳٫۵ و ۴، اطلاعات زیادی در مورد نحوه زندگی، ارتباط و رفتار ما رمزگذاری میکنند و محققان دائماً راههای جدیدی برای استفاده از این دانش پیدا میکنند.
آ مطالعه اخیر انجام شده توسط محققان دانشگاه استنفورد نشان داده است که با طراحی مناسب، LLM ها می توانند برای شبیه سازی رفتار انسان به شیوه ای پویا و متقاعد کننده واقع گرایانه استفاده شوند.
این مطالعه با عنوان «عوامل مولد: شبیهسازیهای تعاملی رفتار انسانی»، پتانسیل مدلهای مولد را در ایجاد معماری عامل هوش مصنوعی که تعاملات آن را به خاطر میآورد، بر اطلاعات دریافتی منعکس میکند و اهداف بلندمدت و کوتاهمدت را بر اساس برنامهریزی میکند، بررسی میکند. یک جریان حافظه که همیشه در حال گسترش است. این عوامل هوش مصنوعی قادر به شبیه سازی رفتار یک انسان در زندگی روزمره خود، از وظایف پیش پا افتاده تا فرآیندهای پیچیده تصمیم گیری هستند.
علاوه بر این، هنگامی که این عوامل با هم ترکیب شوند، می توانند رفتارهای اجتماعی پیچیده تری را که از تعاملات یک جمعیت بزرگ پدید می آید، تقلید کنند. این کار فرصتهای زیادی را بهویژه در شبیهسازی پویایی جمعیت، ارائه بینشهای ارزشمند در مورد رفتارها و تعاملات اجتماعی باز میکند.
یک محیط مجازی برای عوامل مولد
در این مطالعه، محققان عوامل مولد را در Smallville شبیهسازی کردند، یک محیط بازی sandbox متشکل از اشیاء مختلف مانند بوفهها، مدارس، بارها و موارد دیگر.
این محیط توسط ۲۵ عامل مولد که توسط یک LLM طراحی شده است، ساکن شده است. LLM با یک اعلان آغاز می شود که شامل شرح مفصلی از رفتار، شغل، ترجیحات، خاطرات و روابط عامل با سایر عوامل است. خروجی LLM رفتار عامل است.
عامل ها از طریق کنش ها با محیط خود تعامل دارند. در ابتدا، آنها یک بیانیه عمل به زبان طبیعی تولید می کنند، مانند “ایزابلا در حال نوشیدن قهوه است”. این بیانیه سپس به حرکات ملموس در اسمال ویل ترجمه می شود.
علاوه بر این، عوامل از طریق گفتگوی زبان طبیعی با یکدیگر ارتباط برقرار می کنند. مکالمات آنها تحت تأثیر خاطرات قبلی و تعاملات گذشته آنها است.
کاربران انسانی همچنین می توانند با صحبت کردن با آنها از طریق صدای راوی، تغییر وضعیت محیط یا کنترل مستقیم یک عامل، با آنها تعامل داشته باشند. طراحی تعاملی برای ایجاد یک محیط پویا با امکانات زیاد است.
یادآوری و تأمل
هر عامل در محیط SmallVille مجهز به یک جریان حافظه است، یک پایگاه داده جامع که تجربیات عامل را به زبان طبیعی ثبت می کند. این جریان حافظه نقش تعیین کننده ای در رفتار عامل دارد.
برای هر عمل، عامل رکوردهای حافظه مربوطه را بازیابی می کند تا به برنامه ریزی آن کمک کند. به عنوان مثال، اگر یک عامل برای بار دوم با عامل دیگری روبرو شود، سوابق تعاملات گذشته با آن عامل را بازیابی می کند. این به نماینده اجازه می دهد تا مکالمات قبلی را پیگیری کند یا کارهایی را که باید با هم تکمیل شوند پیگیری کند.
با این حال، بازیابی حافظه یک چالش مهم است. با افزایش طول شبیه سازی، جریان حافظه عامل طولانی تر می شود. قرار دادن کل جریان حافظه در زمینه LLM می تواند حواس مدل را پرت کند. و هنگامی که جریان حافظه بیش از حد طولانی شود، در پنجره زمینه LLM قرار نمی گیرد. بنابراین، برای هر تعامل با LLM، عامل باید مرتبط ترین بیت ها را از جریان حافظه بازیابی کند و آنها را به عنوان زمینه در اختیار مدل قرار دهد.
برای پرداختن به این موضوع، محققان یک تابع بازیابی طراحی کردند که ارتباط هر قطعه از حافظه عامل را با وضعیت فعلی خود می سنجد. ارتباط هر حافظه با مقایسه جاسازی آن با وضعیت فعلی اندازه گیری می شود.تعبیه ها مقادیر عددی هستند که معانی مختلف متن را نشان می دهند و برای جستجوی شباهت استفاده می شوند). تازگی حافظه نیز مهم است، به این معنی که خاطرات اخیر ارتباط بیشتری دارند.
علاوه بر این، محققان تابعی را طراحی کردند که به طور دورهای بخشهایی از جریان حافظه را در افکار انتزاعی سطح بالاتر خلاصه میکند که به آنها «بازتاب» گفته میشود. این بازتابها لایههایی را روی هم تشکیل میدهند و به تصویر ظریفتری از شخصیت و ترجیحات عامل کمک میکنند و کیفیت بازیابی حافظه را برای اقدامات آینده افزایش میدهند.
حافظه و بازتابها، سیستم هوش مصنوعی را قادر میسازد تا یک درخواست غنی برای LLM ایجاد کند، که سپس از آن برای برنامهریزی اقدامات هر عامل استفاده میکند.
به کار انداختن عوامل
برنامه ریزی یکی دیگر از جنبه های جذاب پروژه است. محققان باید سیستمی را ابداع می کردند که عوامل را قادر می ساخت تا اقدامات مستقیم را انجام دهند و در عین حال قادر به برنامه ریزی طولانی مدت باشند. برای رسیدن به این هدف، آنها یک رویکرد سلسله مراتبی را در برنامه ریزی اتخاذ کردند.
مدل ابتدا خلاصهای از وضعیت عامل دریافت میکند و از او خواسته میشود یک برنامه سطح بالا برای یک هدف بلندمدت ایجاد کند. سپس به صورت بازگشتی هر مرحله را انجام می دهد و اقدامات دقیق تری را، ابتدا در برنامه های ساعتی، و سپس در کارهای ۵-۱۵ دقیقه ای ایجاد می کند. عوامل نیز با تغییر محیط و مشاهده موقعیت های جدید یا تعامل با سایر عوامل، برنامه های خود را به روز می کنند. این رویکرد پویا به برنامه ریزی تضمین می کند که عوامل می توانند با محیط خود سازگار شوند و با آن به شیوه ای واقع بینانه و قابل باور تعامل داشته باشند.
وقتی شبیه سازی اجرا می شود چه اتفاقی می افتد؟ هر عاملی با دانش اولیه، روال روزانه و اهدافی که باید انجام دهد شروع می کند. آنها این اهداف را برنامه ریزی و اجرا می کنند و با یکدیگر تعامل دارند. از طریق این تعاملات، عوامل ممکن است اطلاعات را به یکدیگر منتقل کنند. با انتشار اطلاعات جدید در میان جمعیت، رفتار جامعه تغییر می کند. عوامل با تغییر یا تعدیل برنامه ها و اهداف خود با آگاهی از رفتار سایر عوامل واکنش نشان می دهند.
آزمایشهای محققان نشان میدهد که عوامل مولد یاد میگیرند که بین خود هماهنگ شوند بدون اینکه به صراحت این کار را به آنها دستور داده شود. مثلا یکی از ماموران با هدف برگزاری جشن ولنتاین شروع به کار کرد. این اطلاعات در نهایت به سایر عوامل رسید و تعدادی از آنها در مهمانی شرکت کردند. (دمو انجام شده است آنلاین منتشر شد.)
علیرغم نتایج چشمگیر مطالعه، اذعان به محدودیت های این تکنیک مهم است. عوامل مولد، در حالی که از دیگر روشهای مبتنی بر LLM در شبیهسازی رفتار انسان پیشی میگیرند، گاهی اوقات در بازیابی حافظه دچار تزلزل میشوند. آنها ممکن است خاطرات مربوطه را نادیده بگیرند یا برعکس، با افزودن جزئیات ناموجود به خاطرات خود، “توهم” کنند. این می تواند منجر به ناهماهنگی در رفتار و تعامل آنها شود.
علاوه بر این، محققان به یک ویژگی غیرمنتظره در رفتار ماموران اشاره کردند: آنها بیش از حد مؤدب و همکاری بودند. در حالی که این ویژگی ها ممکن است در یک دستیار هوش مصنوعی مطلوب باشد، آنها به طور دقیق طیف کامل رفتار انسان را که شامل تعارض و اختلاف است، منعکس نمی کنند.
شبیه سازی رفتار انسان
این مطالعه باعث جلب توجه جامعه پژوهشی شده است. اخیراً محققان استنفورد کد منبع را منتشر کرد برای محیط مجازی و عوامل مولد آنها.
این به سایر محققان اجازه داده است تا بر اساس کار خود، با نهادهای برجسته مانند شرکت سرمایهدار معروف Andreessen Horowitz (a16z) کار خود را توسعه دهند. نسخه های خود از محیط.
در حالی که عوامل مجازی اسمال ویل سرگرم کننده هستند، محققان معتقدند کار آنها کاربردهای گسترده و عملی دارد.
یکی از این برنامه ها، نمونه سازی پویایی در محصولات پرمصرف مانند شبکه های اجتماعی است. محققان امیدوارند که این مدلهای مولد بتوانند به پیشبینی و کاهش پیامدهای منفی، مانند انتشار اطلاعات نادرست یا ترولینگ کمک کنند. با ایجاد یک جمعیت متنوع از عوامل و مشاهده تعاملات آنها در زمینه یک محصول، محققان می توانند رفتارهای نوظهور، مثبت و منفی را مطالعه کنند. عوامل همچنین می توانند برای آزمایش با خلاف واقع ها و شبیه سازی اینکه چگونه سیاست ها و اصلاحات مختلف در رفتار می توانند نتایج را تغییر دهند مورد استفاده قرار گیرند. این مفهوم اساس شبیهسازیهای اجتماعی را تشکیل میدهد.
با این حال، پتانسیل عوامل مولد بدون خطر نیست. آنها می توانند برای ایجاد ربات هایی استفاده شوند که به طور متقاعدکننده ای از انسان های واقعی تقلید می کنند و به طور بالقوه فعالیت های مخرب مانند انتشار اطلاعات نادرست در مقیاس بزرگ را تقویت می کنند. برای مقابله با این، محققان پیشنهاد میکنند که گزارشهای حسابرسی رفتارهای نمایندگان را برای ارائه سطحی از شفافیت و پاسخگویی حفظ کنند.
محققان می نویسند: «با نگاهی به آینده، ما پیشنهاد می کنیم که عوامل مولد می توانند در بسیاری از برنامه های کاربردی تعاملی، از ابزارهای طراحی گرفته تا سیستم های محاسباتی اجتماعی و محیط های فراگیر، نقش داشته باشند.
ماموریت VentureBeat این است که یک میدان شهر دیجیتال برای تصمیم گیرندگان فنی باشد تا دانشی در مورد فناوری سازمانی متحول کننده کسب کنند و معامله کنند. جلسات توجیهی ما را کشف کنید.
منبع: https://venturebeat.com/business/how-ai-agents-are-already-simulating-human-civilization/