علیرغم تغییرات داخلی اخیر در OpenAI، تیم Superalignment به رهبری Ilya Sutskever در مأموریت خود برای توسعه استراتژیهایی برای هدایت و تنظیم سیستمهای هوش مصنوعی فوقهوش ثابت باقی میماند.
این تیم که در ماه جولای تشکیل شد، در حال مقابله با چالش پیچیده تراز کردن مدلهای هوش مصنوعی است که از هوش انسانی پیشی میگیرد.
در حالی که برخی از بدبینان استدلال میکنند که تمرکز بر هوش مصنوعی فوقهوشمند نابهنگام است، تیم Superalignment فعالانه در حال بررسی چارچوبهای حاکمیتی و کنترلی برای رسیدگی به خطرات بالقوه مرتبط با سیستمهای بسیار هوشمند است، همانطور که توسط TechCrunch گزارش شده است.
در آینده، انسان ها باید بر سیستم های هوش مصنوعی بسیار هوشمندتر از آنها نظارت کنند.
ما یک قیاس را مطالعه می کنیم: مدل های کوچک که بر مدل های بزرگ نظارت می کنند.
اولین مقاله تیم Superalignment را بخوانید که پیشرفت در یک رویکرد جدید، تعمیم ضعیف به قوی را نشان می دهد: https://t.co/BiBpGdqtKj pic.twitter.com/jmbbwcrmm8
– OpenAI (@OpenAI) 14 دسامبر ۲۰۲۳
تیم Superalignment که در حال حاضر متشکل از کالین برنز، پاول ایزمایلوف و لئوپولد اشنبرنر است، آخرین کار خود را در کنفرانس NeurIPS ارائه کردند.
رویکرد آنها شامل استفاده از یک مدل هوش مصنوعی کمتر پیچیده (مانند GPT-2) برای هدایت یک مدل پیشرفته تر (مثلاً GPT-4) به سمت رفتارهای مطلوب و دور از رفتارهای نامطلوب است.
این قیاس، که در آن مدل ضعیف نشان دهنده ناظران انسانی و مدل قوی نماد هوش مصنوعی فوقهوشمند است، با هدف بررسی فرضیههای همترازی به شیوهای کنترلشده است.
تمرکز این تیم بر آموزش موثر مدلهای هوش مصنوعی، حصول اطمینان از پیروی از دستورالعملهای داده شده و تأیید ایمنی و دقت خروجیهای تولید شده است.
تیم Superalignment چالشهای همسوسازی مدلهایی را که از هوش انسانی پیشی میگیرند اذعان دارند و بر اهمیت تحقیق در پرداختن به این موضوع حیاتی تأکید میکنند.
برای تشویق همکاری و نوآوری در این زمینه، OpenAI در حال راه اندازی یک برنامه کمک مالی ۱۰ میلیون دلاری برای تحقیقات فنی در زمینه تراز فوق هوشمند است. این برنامه بودجه را به آزمایشگاه های دانشگاهی، سازمان های غیرانتفاعی، محققان فردی و دانشجویان تحصیلات تکمیلی اختصاص می دهد.
اریک اشمیت، مدیر عامل سابق گوگل، از حامیان OpenAI و مدافع تحقیقات هوش مصنوعی، در این بودجه مشارکت دارد. OpenAI همچنین قصد دارد در اوایل سال ۲۰۲۵ یک کنفرانس آکادمیک در مورد همترازی فوق العاده برای اشتراک گذاری و ترویج یافته های تحقیقاتی برگزار کند.
تیم Superalignment متعهد به اشتراک گذاری تحقیقات خود، از جمله کد، با مردم است. ماموریت این تیم با هدف کلی OpenAI برای اطمینان از اینکه هوش مصنوعی به طور ایمن برای بشریت مفید است، هماهنگ است.
مشارکت اشمیت، که منافع تجاری او در هوش مصنوعی ذکر شده است، سؤالاتی را در مورد پیامدهای تجاری و اخلاقی تحقیقات ابرهمسویی OpenAI ایجاد می کند. با این وجود، تیم همچنان به کمک به ایمنی و مزایای هوش مصنوعی پیشرفته برای جامعه گستردهتر متعهد است.
(با ورودی های نمایندگی ها)
منبع: https://www.firstpost.com/tech/openai-believes-human-like-superai-is-coming-sooner-than-expected-plans-to-control-capitalise-on-it-13506542.html