اجلاس هوش مصنوعی بریتانیا که تحت تأثیر فناوری های بزرگ قرار گرفته است، مسائل بزرگ را نادیده می گیرد

رهبران جهان و غول‌های فناوری در حال حاضر برای یک نشست ایمنی هوش مصنوعی در جنوب انگلستان فرود می‌آیند، اما این رویداد درخشان همه را تحت تأثیر قرار نمی‌دهد.

طی دو روز آینده، حدود ۱۰۰ بزرگ‌تر در این رویداد تاریخی شرکت خواهند کرد بلچلی پارک، یک ملک روستاییدور ۹۰ کیلومتری شمال لندن. در حین در جنگ جهانی دوم، این سایت خانه کدشکنانی بود که دستگاه رمزگذاری بدنام انیگما آلمان نازی را شکستند. حدود ۸۰ سال بعد، دولت بریتانیا می‌خواهد نشان دهد که بریتانیا هنوز یک ابرقدرت فناوری است – اما این طرح‌ها باعث نگرانی شده است.

منتقدان دغدغه های مختلفی دارند. آنها نگران هستند که سازمان دهندگان اجلاس توسط “مرز” طلسم شده باشند. هوش مصنوعی“، نام‌های معروف، و ترس‌های دور از دسترس، در حالی که مسائل مهم‌تر و فراگیر را نادیده می‌گیرند.

اضافه شدن دیرهنگام دزدی نمایشی به برنامه، سوء ظن آنها را افزایش داد. روز دوشنبه، نخست وزیر ریشی سوناک فاش کرد که با او “در گفتگو” خواهد بود الون ماسک در X

مشک درخشندگی بیشتری به a اضافه می کند ستاره دار لیست مهمان

در میان دعوت شدگان، چندین تن از وزنه های سیاسی وجود دارند، از جمله کامالا هریس معاون رئیس جمهور آمریکا، اورسولا فون در لاین رئیس کمیسیون اروپا، آنتونیو گوترش دبیر کل سازمان ملل و وو ژائوهوی معاون وزیر چین.

همچنین غول‌های فناوری مختلفی مانند برد اسمیت، رئیس مایکروسافت، سم آلتمن، مدیر عامل OpenAI و یان لیکان، رئیس هوش مصنوعی متا، در این مراسم حضور دارند. اما این رویداد برای همه نیست.

“ترس من این است که اجلاس بر روی تهدیدات وجودی مهم تمرکز کند.

بسیاری از بخش فناوری احساس می کنند که تنها غول های صنعتی و رهبران سیاسی در میز کنفرانس Sunak خواهند نشست.

دکتر هکتور زنیل، بنیانگذار استارت آپ مراقبت های بهداشتی Oxford Immune Algorithmics، نگران است که این رویداد تحت سلطه هوش مصنوعی مولد و فناوری بزرگ باشد. او سوناک را فراخوانده است شامل تعادل بیشتر نمایندگی تجاری و دانشگاهی است.

اگر قرار است اجلاس ایمنی هوش مصنوعی موفقیت آمیز ارزیابی شود – یا حداقل در مسیر درست برای ایجاد اجماع در مورد ایمنی، مقررات و اخلاق هوش مصنوعی – پس دولت بریتانیا باید تلاش کند تا زمینه بازی یکنواخت را برای همه طرف ها ایجاد کند. زنیل گفت: در مورد موارد استفاده آینده این فناوری صحبت کنید.

“اجلاس سران را نمی توان تحت سلطه شرکت هایی با برنامه و روایت خاص حول منافع تجاری خود قرار داد، در غیر این صورت فعالیت های این هفته به عنوان یک تمرین بازاریابی گران قیمت و گمراه کننده تلقی می شود.”

نظرات زنیل در سراسر بخش مشترک است. ویکتور بوتف، مدیر ارشد فناوری و یکی از بنیانگذاران صنعت، در میان خودی‌های صنعت که با او در ناراحتی شریک هستند، است. Iris.aiیک استارت آپ مستقر در اسلو

بوتف، محقق سابق هوش مصنوعی در دانشگاه چالمرز و اکنون یک رهبر تجاری است، خواهان حضور گسترده‌تری از دانشگاه و صنعت در این نشست است.

او گفت: «برای هرگونه مشاوره در مورد مقررات هوش مصنوعی ضروری است که دیدگاه‌هایی فراتر از غول‌های فناوری را در بر گیرد. شرکت‌های کوچک‌تر هوش مصنوعی و توسعه‌دهندگان منبع باز اغلب پیشگام نوآوری‌های جدید هستند، با این حال صدای آنها در مورد مقررات شنیده نمی‌شود. این اجلاس فرصت بزرگی را با حضور ۱۰۰ مهمان که عمدتاً از رهبران جهان و شرکت‌های بزرگ فناوری تشکیل شده‌اند، از دست داد.

سرمایه گذاران خطرپذیر نگرانی های مشابهی را مطرح کرده اند.

“در آینده، ما همچنین باید صدای بیشتری برای خود استارت آپ ها داشته باشیم. هوش مصنوعی ایمنی تمرکز اجلاس بر روی فناوری های بزرگ و حذف بسیاری از افراد در جامعه استارتاپ های هوش مصنوعی ناامید کننده است.” اکاترینا Almasque، شریک عمومی در اروپا VC OpenOcean.

این امر حیاتی است که صداهای صنعت هنگام شکل دادن به مقرراتی که مستقیماً بر توسعه فناوری تأثیر می گذارد، لحاظ شود.

آخرالزمان های هوش مصنوعی مرزی

فهرست مهمانان پر زرق و برق با یک دستور کار مناسب و دراماتیک همراه شده است. به گفته منتقدان، این ترکیب باعث انحراف توجه از نگرانی های مبرم تر است.

آن‌ها خاطرنشان می‌کنند که این برنامه منحصراً بر روی سیستم‌های هوش مصنوعی «مرز» متمرکز خواهد بود – یک اصطلاح مبهم برای مدل‌های پیشرفته و همه‌منظوره هوش مصنوعی. در گزارش اخیر دولت، اصطلاح “هوش مصنوعی مرزی” تقریباً به طور کامل برای مدل‌های زبان بزرگ (LLM) – به ویژه ChatGPT OpenAI – به کار می‌رود.

زنیل مشکوک است که تمرکز روی این موضوع بوده است تحت تأثیر مدیران عاملی که در این زمینه سرمایه گذاری می کنند. او از دولت می خواهد که دیدگاه گسترده تری داشته باشد.

او گفت: «این کاملاً حیاتی است که بریتانیا یک استراتژی منسجم برای هوش مصنوعی داشته باشد که تمام جنبه‌های فناوری و مدل‌های مختلف را در بر بگیرد. مهمتر از همه، این مهم است زیرا هیچ رویکردی به «گلوله نقره‌ای» برای پذیرش هوش مصنوعی تبدیل نخواهد شد.»

اگر اجلاس هوش مصنوعی در بلچلی پارک و کمیته مشورتی هوش مصنوعی تحت تسلط افرادی باشد که تمرکز تحقیقاتی یا تجاری خاصی برای هوش مصنوعی دارند، توسعه چارچوب‌های نظارتی که همه موارد استفاده بالقوه را منعکس می‌کند، دشوارتر خواهد شد.

زنیل همچنین به عنوان محقق ارشد برای مؤسسه آلن تورینگ با بودجه دولتی کار کرده است. اعتبار: الگوریتم ایمنی آکسفورد

یکی دیگر از دلایل حیرت، تمرکز اجلاس بر تهدیدات فرضی “افراطی” و سناریوهای روز قیامت است. سوناک شخصاً این احتمالات فاجعه بار را برجسته کرده است.

او هفته گذشته گفت: “در غیر محتمل ترین اما شدیدترین موارد، حتی این خطر وجود دارد که بشریت بتواند کنترل هوش مصنوعی را به طور کامل از طریق نوعی هوش مصنوعی که گاهی اوقات از آن به عنوان ابر هوش یاد می شود، از دست بدهد.”

منتقدان استدلال می‌کنند که چنین چشم‌اندازهای آخرالزمانی به‌طور چشمگیری بیش از حد پر شده است. برخی رسانه ها را به دلیل افزایش خطرات مقصر می دانند، در حالی که برخی دیگر استدلال می کنند که روسای فناوری برای پنهان کردن مشکلات واقعی و فعلی که ایجاد می کنند، خطرات را اغراق می کنند.

آنها بیشتر نگران تهدیدات ملموس تغییرات آب و هوایی، تعصبات علیه گروه های به حاشیه رانده شده و حملات سایبری هستند. آنها به عنوان مثال اشاره می کنند که یک مطالعه اخیر یافت که هوش مصنوعی گوگل به زودی می تواند به اندازه ایرلند برق مصرف کند.

Almasque، از شرکت VC OpenOcean، نگران است که اولویت های اجلاس منحرف شود.

او می‌گوید: «به نظر می‌رسد که بیشتر بر روی خطرات بزرگ‌تر و بلندمدت هوش مصنوعی تمرکز می‌کند، و به مراتب کمتر روی کارهایی که امروزه برای ایجاد یک اکوسیستم هوش مصنوعی پررونق باید انجام شود، تمرکز خواهد کرد. این مانند یک استارت‌آپ است که قبل از افزایش سرمایه اولیه، نگران قیمت عرضه اولیه سهام خود باشد.»

این نگرانی ها توسط ناتالی کرامپ، مدیر عامل شرکت داده Profusion، که قبلا به دولت بریتانیا مشاوره داده است، مشترک است. او نسبت به تثبیت آینده ای خیالی محتاط است.

کرامپ گفت: “ترس من این است که اجلاس ایمنی هوش مصنوعی بر روی تهدیدات وجودی سرفصل به قیمت مشکلات پیش پا افتاده تری که در حال حاضر ظرفیت آسیب های زیادی را دارند، تمرکز کند.”

هد شات ناتالی کرامپ، مدیر عامل شرکت داده Profusion،
ناتالی کرامپ، مدیر عامل شرکت داده Profusion.

تجمع در نشست سران، مخالفت ها را تشدید کرده است. قبل از این رویداد، سوناک فاش کرد که یکی از اجزای اصلی برنامه او یک موسسه جدید ایمنی هوش مصنوعی «اولین جهان» خواهد بود.

دکتر Asress Gikay، مدرس ارشد هوش مصنوعی در دانشگاه برونل لندن، تحت تاثیر این اعلام قرار نگرفت. گیکای هدف مؤسسه برای ایجاد توافقات بین المللی را رد می کند. او مشکوک است که سوناک انگیزه های پنهانی دارد.

او گفت: «به نظر می‌رسد که نخست‌وزیر به جای پرداختن به موضوعات مبرم‌تر و دست‌نیافتنی‌تر، مانند سرمایه‌گذاری داخلی هوش مصنوعی و توسعه یک سیاست قوی و چارچوب نظارتی برای هوش مصنوعی مسئول در سطح ملی، بیشتر بر بیان اظهارات سیاسی از طریق برنامه‌های غیرواقعی و دست‌نیافتنی متمرکز شده است.» گفت. گفت.

شانس گرفتن

در میان شک و تردیدها، خوش‌بینی نسبت به پتانسیل نشست هوش مصنوعی نیز وجود دارد. شرکت کنندگان بزرگ و توجه رسانه های بین المللی نشان می دهد که بریتانیا می تواند یک بازیگر کلیدی در تحولات جهانی باشد.

بخش پر رونق هوش مصنوعی کشور به این رویداد اعتبار می بخشد، در حالی که رویکرد طرفدار نوآوری آن به مقررات، نقطه تمایز را از حاکمیت اتحادیه اروپا ارائه می دهد. موقعیت بین المللی منحصر به فرد بریتانیا همچنین می تواند پلی بین ایالات متحده، اتحادیه اروپا و چین باشد.

عماد مستقی، مدیر عامل Stability AI – که مدل Stable Diffusion متن به تصویر را توسعه می دهد – از جمله حامیان برجسته این اجلاس است.

او گفت: «انگلیس یک بار در یک نسل فرصتی برای تبدیل شدن به یک ابرقدرت هوش مصنوعی دارد و اطمینان حاصل می کند که هوش مصنوعی به نفع همه است، نه فقط فناوری های بزرگ.

بوتف، یکی از بنیانگذاران Iris.aiبیشتر است محتاطانه امیدوار او درباره پتانسیل نشست سران خوش بین است، اما نگران است که دولت ممکن است تصمیمی عجولانه بگیرد یک خبر صفحه اول

او گفت: «با توجه به جامعه جهانی هوش مصنوعی، بریتانیا باید در برابر این اصرار مقاومت کند. این اجلاس فرصتی برای بریتانیا است تا مسیری جهانی را در مورد حکمرانی هوش مصنوعی ترسیم کند و از پیشرفت بدون به خطر انداختن ایمنی اطمینان حاصل کند. بریتانیا با دقت و خردمندی می تواند مقررات آینده نگر را ایجاد کند که ضمن ایجاد اعتماد، نوآوری را ترویج می کند.


منبع: https://thenextweb.com/news/uk-ai-safety-summit-raises-concerns

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *