پدرخوانده هوش مصنوعی هشدار داد که یک درصد قدرت را برای همیشه به دست می گیرند، سناریوی قیامت واقعی است.

یان لیکان، پدرخوانده هوش مصنوعی، به سمت رهبران برجسته هوش مصنوعی شلیک کرده است.

کوین دیچ/گتی ایماژ



  • یک پدرخوانده هوش مصنوعی آن را با روز قیامت داشته است.
  • Yann LeCun از متا فکر می‌کند که اظهارنظرهای غم انگیز مدیران فناوری در مورد خطرات هوش مصنوعی می‌تواند بیشتر از اینکه مفید باشد آسیب برساند.
  • او گفت که این ایرادگیری در واقع در مورد حفظ کنترل هوش مصنوعی در دست چند نفر است.
تبلیغات

تبلیغات

پدرخوانده هوش مصنوعی یان لکون از ما می خواهد که برخی از دور از ذهن ها را فراموش کنیم سناریوهای روز قیامت

او تهدیدی متفاوت و واقعی را در افق می بیند: ظهور یک درصد تشنه قدرت که ثروت های هوش مصنوعی را از دیگران می دزدند.

در آخر هفته، دانشمند ارشد هوش مصنوعی متا برخی از برجسته ترین بنیانگذاران هوش مصنوعی را متهم کرد “ترس پراکنی” و “لابی گسترده شرکتی” برای تامین منافع خود

او نام برد سام آلتمن از OpenAIDemis Hassabis از Google DeepMind و Dario Amodei از Anthropic در یک پست طولانی آخر هفته در X.

تبلیغات

تبلیغات

LeCun با اشاره به نقش این بنیانگذاران در شکل دادن به مکالمات نظارتی در مورد ایمنی هوش مصنوعی نوشت: «آلتمن، هسابیس و آمودی کسانی هستند که در حال حاضر لابی های شرکتی گسترده ای انجام می دهند. “آنها کسانی هستند که تلاش می کنند صنعت هوش مصنوعی را کنترل کنند.”

او افزود که اگر این تلاش ها به نتیجه برسد، نتیجه یک “فاجعه” خواهد بود زیرا “تعداد کمی از شرکت ها هوش مصنوعی را کنترل خواهند کرد.”

این بسیار مهم است، زیرا، همانطور که تقریباً همه کسانی که در فناوری اهمیت دارند، موافق هستند، هوش مصنوعی بزرگترین پیشرفت در فناوری است از ریزتراشه یا اینترنت.

آلتمن، حسابیس و آمودی بلافاصله به درخواست اینسایدر برای اظهار نظر پاسخ ندادند.

نظرات LeCun در پاسخ به پستی در X از فیزیکدان مکس تگمارککه پیشنهاد کرد که LeCun به اندازه کافی استدلال های روز رستاخیز هوش مصنوعی را جدی نمی گیرد.

تبلیغات

تبلیغات

“با تشکر از @RishiSunak & @vonderleyen تگمارک با اشاره به اجلاس جهانی ایمنی هوش مصنوعی بریتانیا نوشت: برای درک این موضوع که استدلال های تورینگ، هینتون، بنجیو، راسل، آلتمن، هاسابیس و آمودی را نمی توان تنها با لابی گری شرکتی رد کرد.

LeCun می گوید که نگرانی بنیانگذار فقط لابی کردن است

از آنجا که راه اندازی ChatGPTبازیگران قدرتمند هوش مصنوعی به چهره های عمومی اصلی تبدیل شده اند.

اما، لکان گفت، بنیان‌گذارانی مانند آلتمن و حسابیس زمان زیادی را صرف ترس از فناوری‌هایی که می‌فروشند، کرده‌اند.

در ماه مارس، بیش از ۱۰۰۰ رهبر فناوری، از جمله ایلان ماسک، آلتمن، حسابیس و آمودی، نامه ای را امضا کرد که خواستار توقف حداقل شش ماهه توسعه هوش مصنوعی شد.

تبلیغات

تبلیغات

در این نامه به «خطرات عمیقی برای جامعه و بشریت» اشاره شده است که سیستم‌های هوش مصنوعی فرضی دارند. تگمارک، یکی از امضاکنندگان نامه، دارد توسعه هوش مصنوعی را “یک مسابقه خودکشی” توصیف کرد.

LeCun و دیگران می گویند که این نوع هشدارهای خبرساز فقط در مورد تقویت قدرت و اسکیت کردن بر روی خطرات واقعی و قریب الوقوع هوش مصنوعی است.

به گفته مؤسسه تحقیقاتی هوش مصنوعی توزیع شده (DAIR)، این خطرات شامل استثمار کارگران و سرقت داده‌ها است که برای «تعدادی از نهادها» سود ایجاد می‌کند.

تمرکز بر خطرات فرضی همچنین توجه را از این سوال خسته کننده اما مهم منحرف می کند که توسعه هوش مصنوعی در واقع چگونه شکل می گیرد.

تبلیغات

تبلیغات

LeCun وضعیت مردم را توصیف کرده است “بیش از حد در مورد خطر هوش مصنوعی” زیرا آنها گرفتار چیزی شده اند که او به عنوان اسطوره “برخاست سخت” توصیف می کند. این ایده این است که “دقیقه ای که یک سیستم فوق هوشمند را روشن کنید، بشریت محکوم به فنا است.”

اما او استدلال می‌کند که عذاب قریب‌الوقوع بعید است، زیرا هر فناوری جدید در واقع قبل از انتشار گسترده‌تر، فرآیند توسعه بسیار منظمی را طی می‌کند.

بنابراین منطقه ای که باید روی آن تمرکز کرد، در واقع، چگونه هوش مصنوعی در حال حاضر توسعه یافته است. و برای LeCun، خطر واقعی این است که توسعه هوش مصنوعی در نهادهای خصوصی و انتفاعی قفل شده است که هرگز یافته های خود را منتشر نمی کنند. جامعه منبع باز هوش مصنوعی محو می شود

نگرانی بعدی او این است که تنظیم‌کننده‌ها اجازه می‌دهند این اتفاق بیفتد زیرا حواسشان به بحث‌های ربات قاتل پرت شده است.

تبلیغات

تبلیغات

رهبرانی مانند LeCun از توسعه‌دهندگان منبع باز حمایت کرده‌اند، زیرا کارشان بر روی ابزارهایی است که رقیب ChatpGPT OpenAI هستند و سطح جدیدی از شفافیت را برای توسعه هوش مصنوعی به ارمغان می‌آورند.

کارفرمای LeCun، متا، مدل زبان بزرگ خود را ساخته است که با GPT، LLaMa 2، (تا حدودی) منبع باز رقابت می کند. ایده این است که جامعه فناوری گسترده تر می تواند زیر کاپوت مدل نگاه کند. هیچ شرکت فناوری بزرگ دیگری نسخه منبع باز مشابهی را انجام نداده است، اگرچه OpenAI چنین است شایعه شده که به آن فکر می کند.

برای LeCun، بسته نگه داشتن توسعه هوش مصنوعی یک دلیل واقعی برای هشدار است.

جایگزین، که خواهد شد به ناچار او نوشت: «اگر هوش مصنوعی منبع باز از بین برود، چه اتفاقی می‌افتد این است که تعداد کمی از شرکت‌ها از سواحل غربی ایالات متحده و چین، پلتفرم هوش مصنوعی را کنترل می‌کنند و از این رو کل رژیم دیجیتالی افراد را کنترل می‌کنند.

تبلیغات

تبلیغات

“این برای دموکراسی چه معنایی دارد؟ برای تنوع فرهنگی چه معنایی دارد؟”

عکس سوئیچ و لامپ

برای اطلاعیه های Insiders ثبت نام کنید! با آنچه می خواهید بدانید به روز باشید.

در اعلان‌های فشار مشترک شوید

در ادامه بخوانید

متا
هوش مصنوعی
OpenAI

تبلیغات


نماد بستن دو خط متقاطع که “X” را تشکیل می دهند. راهی برای بستن یک تعامل یا رد کردن یک اعلان را نشان می دهد.



منبع: https://www.businessinsider.com/sam-altman-and-demis-hassabis-just-want-to-control-ai-2023-10

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *