OpenAI دستورالعملهایی را فاش کرده است که نشان میدهد هیئت مدیره آن اختیار دارد که از انتشار یک مدل هوش مصنوعی جلوگیری کند، حتی اگر رهبری شرکت آن را ایمن بداند. این حرکت نشان دهنده تعهد OpenAI به توانمندسازی مدیران خود برای افزایش حفاظت از فناوری پیشرفته هوش مصنوعی است.
این دستورالعمل که روز دوشنبه منتشر شد، به نحوه برنامه ریزی OpenAI برای مقابله با خطرات شدید مرتبط با قوی ترین سیستم های هوش مصنوعی خود می پردازد.
پس از آشفتگی های اخیر رهبری که منجر به برکناری مدیر عامل سام آلتمن برای مدت کوتاهی توسط هیئت مدیره شد، OpenAI بر تعادل قدرت بین مدیران و تیم اجرایی شرکت تاکید دارد.
این دستورالعملها وظایف تیم «آمادگی» OpenAI را مشخص میکند که سیستمهای هوش مصنوعی را در چهار دسته ارزیابی میکند، از جمله مسائل احتمالی امنیت سایبری و تهدیدات مرتبط با عوامل شیمیایی، هستهای و بیولوژیکی.
این شرکت بهویژه در مورد خطرات «فاجعهبار» هوشیار است، ریسکهایی که بالقوه صدها میلیارد دلار خسارت اقتصادی یا آسیب شدید یا مرگ برای بسیاری از افراد را دارند.
تیم آمادگی به رهبری الکساندر مدری از موسسه فناوری ماساچوست، گزارش های ماهانه را به یک گروه مشاوره ایمنی داخلی جدید ارسال می کند.
این گروه مشاوره یافته های تیم را تجزیه و تحلیل کرده و توصیه هایی را به آلتمن و هیئت مدیره ارائه خواهد کرد.
در حالی که آلتمن و تیم رهبری او می توانند تصمیم بگیرند که آیا یک سیستم هوش مصنوعی جدید را بر اساس این گزارش ها منتشر کنند یا خیر، هیئت مدیره این اختیار را دارد که بر اساس دستورالعمل ها این تصمیم را نادیده بگیرد.
OpenAI تیم “آمادگی” را در ماه اکتبر تأسیس کرد و یکی از سه گروه نظارت بر ایمنی هوش مصنوعی در شرکت را تشکیل داد. گروههای دیگر شامل «سیستمهای ایمنی»، با تمرکز بر محصولات فعلی مانند GPT-4، و «Superalignment»، تمرکز بر سیستمهای بالقوه هوش مصنوعی آینده با قدرت استثنایی هستند.
تیم Madry به طور مداوم پیشرفتهترین و منتشرنشدهترین مدلهای هوش مصنوعی OpenAI را ارزیابی میکند و آنها را بهعنوان «کم»، «متوسط»، «بالا» یا «بحرانی» برای انواع مختلف ریسکهای درک شده دستهبندی میکند.
طبق دستورالعمل ها، مدل هایی که دارای رتبه “متوسط” یا “پایین” هستند، تنها مدل هایی هستند که OpenAI منتشر می کند.
مدری امیدوار است که سایر شرکتها دستورالعملهای OpenAI را برای ارزیابی ریسکهای بالقوه مرتبط با مدلهای هوش مصنوعی خود اتخاذ کنند. این دستورالعملها فرآیندهایی را که OpenAI قبلاً هنگام ارزیابی فناوری هوش مصنوعی دنبال میکرد، با ورودی و بازخورد جمعآوری شده از درون سازمان در چند ماه گذشته رسمی میکند.
(با ورودی های نمایندگی ها)
منبع: https://www.firstpost.com/tech/whos-the-boss-openai-board-members-can-now-overrule-sam-altman-on-safety-of-new-ai-releases-13520172.html