یان لیکان، پدرخوانده هوش مصنوعی، به سمت رهبران برجسته هوش مصنوعی شلیک کرده است.
کوین دیچ/گتی ایماژ
- یک پدرخوانده هوش مصنوعی آن را با روز قیامت داشته است.
- Yann LeCun از متا فکر میکند که اظهارنظرهای غم انگیز مدیران فناوری در مورد خطرات هوش مصنوعی میتواند بیشتر از اینکه مفید باشد آسیب برساند.
- او گفت که این ایرادگیری در واقع در مورد حفظ کنترل هوش مصنوعی در دست چند نفر است.
پدرخوانده هوش مصنوعی یان لکون از ما می خواهد که برخی از دور از ذهن ها را فراموش کنیم سناریوهای روز قیامت
او تهدیدی متفاوت و واقعی را در افق می بیند: ظهور یک درصد تشنه قدرت که ثروت های هوش مصنوعی را از دیگران می دزدند.
در آخر هفته، دانشمند ارشد هوش مصنوعی متا برخی از برجسته ترین بنیانگذاران هوش مصنوعی را متهم کرد “ترس پراکنی” و “لابی گسترده شرکتی” برای تامین منافع خود
او نام برد سام آلتمن از OpenAIDemis Hassabis از Google DeepMind و Dario Amodei از Anthropic در یک پست طولانی آخر هفته در X.
LeCun با اشاره به نقش این بنیانگذاران در شکل دادن به مکالمات نظارتی در مورد ایمنی هوش مصنوعی نوشت: «آلتمن، هسابیس و آمودی کسانی هستند که در حال حاضر لابی های شرکتی گسترده ای انجام می دهند. “آنها کسانی هستند که تلاش می کنند صنعت هوش مصنوعی را کنترل کنند.”
او افزود که اگر این تلاش ها به نتیجه برسد، نتیجه یک “فاجعه” خواهد بود زیرا “تعداد کمی از شرکت ها هوش مصنوعی را کنترل خواهند کرد.”
این بسیار مهم است، زیرا، همانطور که تقریباً همه کسانی که در فناوری اهمیت دارند، موافق هستند، هوش مصنوعی بزرگترین پیشرفت در فناوری است از ریزتراشه یا اینترنت.
آلتمن، حسابیس و آمودی بلافاصله به درخواست اینسایدر برای اظهار نظر پاسخ ندادند.
نظرات LeCun در پاسخ به پستی در X از فیزیکدان مکس تگمارککه پیشنهاد کرد که LeCun به اندازه کافی استدلال های روز رستاخیز هوش مصنوعی را جدی نمی گیرد.
“با تشکر از @RishiSunak & @vonderleyen تگمارک با اشاره به اجلاس جهانی ایمنی هوش مصنوعی بریتانیا نوشت: برای درک این موضوع که استدلال های تورینگ، هینتون، بنجیو، راسل، آلتمن، هاسابیس و آمودی را نمی توان تنها با لابی گری شرکتی رد کرد.
LeCun می گوید که نگرانی بنیانگذار فقط لابی کردن است
از آنجا که راه اندازی ChatGPTبازیگران قدرتمند هوش مصنوعی به چهره های عمومی اصلی تبدیل شده اند.
اما، لکان گفت، بنیانگذارانی مانند آلتمن و حسابیس زمان زیادی را صرف ترس از فناوریهایی که میفروشند، کردهاند.
در ماه مارس، بیش از ۱۰۰۰ رهبر فناوری، از جمله ایلان ماسک، آلتمن، حسابیس و آمودی، نامه ای را امضا کرد که خواستار توقف حداقل شش ماهه توسعه هوش مصنوعی شد.
در این نامه به «خطرات عمیقی برای جامعه و بشریت» اشاره شده است که سیستمهای هوش مصنوعی فرضی دارند. تگمارک، یکی از امضاکنندگان نامه، دارد توسعه هوش مصنوعی را “یک مسابقه خودکشی” توصیف کرد.
LeCun و دیگران می گویند که این نوع هشدارهای خبرساز فقط در مورد تقویت قدرت و اسکیت کردن بر روی خطرات واقعی و قریب الوقوع هوش مصنوعی است.
به گفته مؤسسه تحقیقاتی هوش مصنوعی توزیع شده (DAIR)، این خطرات شامل استثمار کارگران و سرقت دادهها است که برای «تعدادی از نهادها» سود ایجاد میکند.
تمرکز بر خطرات فرضی همچنین توجه را از این سوال خسته کننده اما مهم منحرف می کند که توسعه هوش مصنوعی در واقع چگونه شکل می گیرد.
LeCun وضعیت مردم را توصیف کرده است “بیش از حد در مورد خطر هوش مصنوعی” زیرا آنها گرفتار چیزی شده اند که او به عنوان اسطوره “برخاست سخت” توصیف می کند. این ایده این است که “دقیقه ای که یک سیستم فوق هوشمند را روشن کنید، بشریت محکوم به فنا است.”
اما او استدلال میکند که عذاب قریبالوقوع بعید است، زیرا هر فناوری جدید در واقع قبل از انتشار گستردهتر، فرآیند توسعه بسیار منظمی را طی میکند.
بنابراین منطقه ای که باید روی آن تمرکز کرد، در واقع، چگونه هوش مصنوعی در حال حاضر توسعه یافته است. و برای LeCun، خطر واقعی این است که توسعه هوش مصنوعی در نهادهای خصوصی و انتفاعی قفل شده است که هرگز یافته های خود را منتشر نمی کنند. جامعه منبع باز هوش مصنوعی محو می شود
نگرانی بعدی او این است که تنظیمکنندهها اجازه میدهند این اتفاق بیفتد زیرا حواسشان به بحثهای ربات قاتل پرت شده است.
رهبرانی مانند LeCun از توسعهدهندگان منبع باز حمایت کردهاند، زیرا کارشان بر روی ابزارهایی است که رقیب ChatpGPT OpenAI هستند و سطح جدیدی از شفافیت را برای توسعه هوش مصنوعی به ارمغان میآورند.
کارفرمای LeCun، متا، مدل زبان بزرگ خود را ساخته است که با GPT، LLaMa 2، (تا حدودی) منبع باز رقابت می کند. ایده این است که جامعه فناوری گسترده تر می تواند زیر کاپوت مدل نگاه کند. هیچ شرکت فناوری بزرگ دیگری نسخه منبع باز مشابهی را انجام نداده است، اگرچه OpenAI چنین است شایعه شده که به آن فکر می کند.
برای LeCun، بسته نگه داشتن توسعه هوش مصنوعی یک دلیل واقعی برای هشدار است.
“جایگزین، که خواهد شد به ناچار او نوشت: «اگر هوش مصنوعی منبع باز از بین برود، چه اتفاقی میافتد این است که تعداد کمی از شرکتها از سواحل غربی ایالات متحده و چین، پلتفرم هوش مصنوعی را کنترل میکنند و از این رو کل رژیم دیجیتالی افراد را کنترل میکنند.
“این برای دموکراسی چه معنایی دارد؟ برای تنوع فرهنگی چه معنایی دارد؟”
برای اطلاعیه های Insiders ثبت نام کنید! با آنچه می خواهید بدانید به روز باشید.
در ادامه بخوانید
تماشا کنید: الکسیس اوهانیان، یکی از بنیانگذاران Reddit، نگران دیدگاه ایلان ماسک از رباتهایی شبیه به «ترمیناتور» نیست که بشریت را تحت کنترل خود درآورند.
هوش مصنوعی
OpenAI
منبع: https://www.businessinsider.com/sam-altman-and-demis-hassabis-just-want-to-control-ai-2023-10