VentureBeat ارائه می دهد: AI Unleashed – یک رویداد اجرایی انحصاری برای رهبران داده های سازمانی. شبکه و یادگیری با همتایان صنعت. بیشتر بدانید
شکی نیست که سرعت توسعه هوش مصنوعی در سال گذشته افزایش یافته است. با توجه به پیشرفت های سریع در فناوری، این ایده که هوش مصنوعی روزی می تواند باهوش تر از مردم باشد، از داستان های علمی تخیلی به واقعیت کوتاه مدت معقول تبدیل شده است.
جفری هینتون، برنده جایزه تورینگ، در ماه می به پایان رسید زمانی که هوش مصنوعی میتوانست باهوشتر از مردم باشد، آنطور که او ابتدا فکر میکرد ۵۰ تا ۶۰ سال نبود – بلکه احتمالاً تا سال ۲۰۲۸ بود. علاوه بر این، شین لگ، یکی از بنیانگذاران DeepMind اخیرا گفت که او فکر می کند تا سال ۲۰۲۸ شانس دستیابی به هوش عمومی مصنوعی (AGI) 50 تا ۵۰ است. (AGI به نقطه ای اشاره دارد که سیستم های هوش مصنوعی دارای توانایی های شناختی عمومی هستند و می توانند وظایف فکری را در سطح انسان یا فراتر از آن انجام دهند. تمرکز محدودی بر انجام کارکردهای خاص، همانطور که تاکنون انجام شده است.)
این امکان کوتاه مدت باعث ایجاد بحث های قوی – و گاهی داغ – در مورد هوش مصنوعی، به ویژه پیامدهای اخلاقی و آینده نظارتی. این بحث ها از محافل دانشگاهی به خط مقدم سیاست جهانی منتقل شده است و دولت ها، رهبران صنعت و شهروندان نگران را بر آن داشته تا با سؤالاتی دست و پنجه نرم کنند که ممکن است آینده بشریت را شکل دهد.
این بحث ها با چندین اعلامیه نظارتی مهم گام بزرگی به جلو برداشته است، اگرچه ابهام قابل توجهی همچنان باقی است.
بحث در مورد خطرات وجودی هوش مصنوعی
به سختی توافق جهانی در مورد هر گونه پیش بینی در مورد هوش مصنوعی وجود دارد، به غیر از احتمال اینکه تغییرات بزرگی در پیش باشد. با این وجود، این بحث ها گمانه زنی هایی را در مورد اینکه چگونه – و تا چه حد – پیشرفت های هوش مصنوعی ممکن است به اشتباه برود، ایجاد کرده است.
به عنوان مثال، سام آلتمن، مدیر عامل OpenAI نظرات خود را به صراحت بیان کرد در جریان یک جلسه استماع کنگره در ماه مه در مورد خطراتی که هوش مصنوعی ممکن است ایجاد کند. “من فکر می کنم اگر این فناوری اشتباه کند، ممکن است کاملاً اشتباه شود. و ما می خواهیم در مورد آن صحبت کنیم. ما می خواهیم با دولت کار کنیم تا از این اتفاق جلوگیری کنیم.”
آلتمن در این دیدگاه تنها نبود. در یک جمله آمده است: «کاهش خطر انقراض ناشی از هوش مصنوعی باید در کنار سایر خطرات اجتماعی مانند بیماری های همه گیر و جنگ هسته ای یک اولویت جهانی باشد. بیانیه در اواخر ماه مه توسط مرکز غیرانتفاعی ایمنی هوش مصنوعی منتشر شد. بود امضاء شده توسط صدها نفر از جمله آلتمن و ۳۸ عضو واحد هوش مصنوعی DeepMind گوگل. این دیدگاه در اوج نابودی هوش مصنوعی بیان شد، زمانی که نگرانیها در مورد خطرات احتمالی وجودی بسیار شایع بود.
مطمئناً منطقی است که با نزدیکتر شدن به سال ۲۰۲۸ در مورد این موضوعات گمانهزنی کنیم و بپرسیم که چقدر برای خطرات احتمالی آماده هستیم. با این حال، همه معتقد نیستند که این خطرات آنقدر زیاد است، حداقل نه خطرات وجودی شدیدتر که انگیزه بسیاری از گفتگوها در مورد مقررات است.
صدای صنعت از شک و نگرانی
اندرو نگ، رئیس سابق Google Brain، کسی است که از سناریوهای روز قیامت استثناء میگیرد. او اخیرا گفت اینکه «ایده بدی که هوش مصنوعی میتواند ما را منقرض کند» در حال ادغام با «ایده بدی است که یک راه خوب برای ایمنتر کردن هوش مصنوعی، تحمیل الزامات سنگین صدور مجوز» بر صنعت هوش مصنوعی است.
از نظر نگاین راهی برای فناوری های بزرگ برای ایجاد ضبط نظارتی برای اطمینان از جایگزینی منبع باز است نمی تواند رقابت کند. تسخیر رگولاتوری مفهومی است که در آن یک آژانس نظارتی سیاستهایی را وضع میکند که به نفع صنعت به بهای منافع عمومیتر است، در این مورد با مقرراتی که برای کسبوکارهای کوچکتر بسیار طاقتفرسا یا گران هستند.
دانشمند ارشد هوش مصنوعی متا یان لکون – که مانند هینتون برنده جایزه تورینگ است – آخر هفته گذشته یک گام فراتر رفت. ارسال کردن در X، که قبلاً به نام توییتر شناخته می شد، او ادعا کرد که آلتمن، مدیر عامل آنتروپیک، داریو آمودی و مدیر عامل گوگل دیپ مایند، دمیس حسابیس، همگی با ترویج سناریوهای هوش مصنوعی روز رستاخیز که “احمقانه” هستند، در “لابی شرکتی گسترده” شرکت می کنند.
او ادعا کرد که اثر خالص این لابی کردن، مقرراتی است که به طور موثر پروژه های AI منبع باز را به دلیل هزینه های بالای اجرای مقررات محدود می کند و عملاً تنها “تعداد کمی از شرکت ها” باقی می ماند. [that] هوش مصنوعی را کنترل خواهد کرد.”
فشار نظارتی
با این وجود، راهپیمایی به سمت مقررات سرعت گرفته است. در ماه جولای، کاخ سفید تعهد داوطلبانه ای از OpenAI و دیگر توسعه دهندگان برجسته هوش مصنوعی – از جمله Anthropic، Alphabet، Meta و Microsoft – اعلام کرد که متعهد شدند راه هایی برای ابزارهای خود را برای امنیت آزمایش کنند قبل از انتشار عمومی شرکت های اضافی ملحق شد این تعهد در ماه سپتامبر، مجموع را به ۱۵ شرکت می رساند.
موضع دولت آمریکا
کاخ سفید این هفته یک فراگیر صادر کرد فرمان اجرایی در مورد “هوش مصنوعی ایمن، ایمن و قابل اعتماد” با هدف رویکردی متعادل بین توسعه نامحدود و نظارت دقیق.
به گزارش Wiredاین دستور برای ترویج استفاده گستردهتر از هوش مصنوعی و حفظ هوش مصنوعی تجاری در یک افسار محکمتر طراحی شده است، با دهها دستورالعمل برای آژانسهای فدرال که باید در سال آینده تکمیل شوند. این دستورالعملها طیفی از موضوعات، از امنیت ملی و مهاجرت گرفته تا مسکن و مراقبتهای بهداشتی را پوشش میدهند و الزامات جدیدی را برای شرکتهای هوش مصنوعی برای به اشتراک گذاشتن نتایج تست ایمنی با دولت فدرال تحمیل میکنند.
کوین روز، خبرنگار فناوری نیویورک تایمز، خاطرنشان کرد که به نظر می رسد این سفارش دارای یک کمی برای همه، دربرگیرنده تلاش کاخ سفید برای پیمودن مسیری میانه در حکمرانی هوش مصنوعی است. شرکت مشاوره ای EY ارائه کرده است تحلیل و بررسی.
در حالی که این قانون ماندگاری ندارد – رئیس جمهور بعدی اگر بخواهد به سادگی می تواند آن را تغییر دهد – این یک ترفند استراتژیک برای قرار دادن دیدگاه ایالات متحده در مرکز رقابت جهانی پرمخاطره برای تأثیرگذاری بر آینده حکمرانی هوش مصنوعی است. به گفته پرزیدنت بایدن، فرمان اجرایی “مهمترین اقدامی است که هر دولت در هر جای دنیا تا به حال در مورد ایمنی، امنیت و اعتماد هوش مصنوعی انجام داده است.”
رایان هیث در Axios نظر داد “رویکرد بیشتر هویج است تا چوب، اما می تواند برای پیشبرد ایالات متحده از رقبای خارج از کشور در رقابت برای تنظیم هوش مصنوعی کافی باشد.” کیسی نیوتن در خبرنامه Platformer خود می نویسد دولت را تشویق کرد. آنها “تخصص کافی را در سطح فدرال توسعه داده اند.” [to] یک فرمان اجرایی گسترده اما ظریف بنویسید که باید حداقل برخی از آسیبها را کاهش دهد و در عین حال فضایی برای اکتشاف و کارآفرینی باقی بگذارد.”
سیاست “جام جهانی” هوش مصنوعی
این تنها ایالات متحده نیست که برای شکل دادن به آینده هوش مصنوعی گام برمی دارد. مرکز هوش مصنوعی و سیاست دیجیتال اخیرا گفت که هفته گذشته “جام جهانی” سیاست هوش مصنوعی بود. علاوه بر ایالات متحده، G7 نیز اعلام کرد مجموعه ای از ۱۱ اصل غیر الزام آور هوش مصنوعی، که از “سازمان هایی که سیستم های هوش مصنوعی پیشرفته را توسعه می دهند می خواهد تا متعهد به استفاده از آیین نامه رفتار بین المللی”
مانند سفارش ایالات متحده، کد G7 برای تقویت سیستم های هوش مصنوعی ایمن، ایمن و قابل اعتماد طراحی شده است. مانند اشاره شد با این حال، توسط VentureBeat، “حوزه های قضایی مختلف ممکن است رویکردهای منحصر به فرد خود را برای اجرای این اصول راهنما اتخاذ کنند.”
در فینال بزرگ هفته گذشته، اجلاس ایمنی هوش مصنوعی بریتانیا، دولتها، کارشناسان پژوهشی، گروههای جامعه مدنی و شرکتهای پیشرو هوش مصنوعی را از سرتاسر جهان گرد هم آورد تا درباره خطرات هوش مصنوعی و چگونگی کاهش آنها بحث کنند. این اجلاس به ویژه بر مدلهای «هوش مصنوعی مرزی»، پیشرفتهترین مدلهای زبان بزرگ (LLM) با قابلیتهایی که نزدیک یا فراتر از عملکرد سطح انسانی در چندین کار، از جمله مواردی که توسط Alphabet، Anthropic، OpenAI و چندین شرکت دیگر توسعه داده شدهاند، متمرکز شد.
همانطور که توسط مجله نیویورک تایمزیک نتیجه از این کنفرانس استاعلامیه بلچلیامضا شده توسط نمایندگان ۲۸ کشور، از جمله ایالات متحده و چین، که در مورد خطرات ناشی از پیشرفته ترین سیستم های هوش مصنوعی مرزی هشدار داده است. قرار گرفته است این بیانیه توسط دولت بریتانیا به عنوان “اولین توافق جهانی” برای مدیریت آنچه آنها به عنوان پرخطرترین اشکال هوش مصنوعی میدانند، میافزاید: “ما تصمیم داریم به شیوهای فراگیر با یکدیگر همکاری کنیم تا از هوش مصنوعی انسان محور، قابل اعتماد و مسئولانه اطمینان حاصل کنیم.”
با این حال، این توافق هیچ هدف سیاسی خاصی را تعیین نکرد. با این وجود، دیوید مایر در فورچون ارزیابی شد این یک “شروع امیدوارکننده” برای همکاری بین المللی در مورد موضوعی است که تنها در سال گذشته به عنوان یک موضوع جدی مطرح شده است.
ایجاد تعادل بین نوآوری و مقررات
با نزدیک شدن به افق ترسیم شده توسط کارشناسانی مانند جفری هینتون و شین لگ، بدیهی است که ریسک توسعه هوش مصنوعی در حال افزایش است. از کاخ سفید گرفته تا G7، اتحادیه اروپا، سازمان ملل متحد، چین و بریتانیا، چارچوب های نظارتی به عنوان اولویت اصلی ظاهر شده اند. این تلاشهای اولیه با هدف کاهش خطرات و در عین حال تقویت نوآوری انجام میشود، اگرچه پرسشهایی پیرامون اثربخشی و بیطرفی آنها در اجرای واقعی باقی مانده است.
آنچه کاملاً واضح است این است که هوش مصنوعی یک موضوع واردات جهانی است. چند سال آینده در پیمایش پیچیدگیهای این دوگانگی بسیار مهم خواهد بود: ایجاد توازن در وعده نوآوریهای مثبت که زندگی را تغییر میدهند، مانند درمانهای پزشکی مؤثرتر و مبارزه با تغییرات اقلیمی در برابر الزامات پادمانهای اخلاقی و اجتماعی. همراه با دولت ها، کسب و کار و دانشگاه ها، فعالیت های مردمی و مشارکت شهروندان به طور فزاینده ای به نیروهای حیاتی در شکل دادن به آینده هوش مصنوعی تبدیل می شوند.
این یک چالش جمعی است که نه تنها صنعت فناوری بلکه به طور بالقوه مسیر آینده بشریت را شکل خواهد داد.
DataDecisionMakers
به انجمن VentureBeat خوش آمدید!
DataDecisionMakers جایی است که کارشناسان، از جمله افراد فنی که کار داده را انجام می دهند، می توانند بینش ها و نوآوری های مرتبط با داده را به اشتراک بگذارند.
اگر میخواهید درباره ایدههای پیشرفته و اطلاعات بهروز، بهترین شیوهها و آینده فناوری داده و داده مطالعه کنید، به ما در DataDecisionMakers بپیوندید.
حتی ممکن است در نظر بگیرید مشارکت در مقاله از خودت!
منبع: https://venturebeat.com/ai/global-leaders-scramble-to-regulate-the-future-of-ai/