به گفته منتقدان، اولین اعلامیه جهانی در مورد هوش مصنوعی که روز چهارشنبه مورد توافق قرار گرفت، تأثیر واقعی نخواهد داشت و توسط فناوری های بزرگ دستکاری شده است.
این بیانیه توسط ۲۸ کشور – و اتحادیه اروپا – که مجموعاً شش قاره را پوشش می دهند، امضا کردند. آنها از پیمان خود در بریتانیا رونمایی کردند اجلاس ایمنی هوش مصنوعی در پارک بلچلی، جایی که رمز شکن ها ماشین انیگما آلمان نازی را در طول جنگ جهانی دوم شکستند.
قرارداد جدید نام خود را از سایت گرفته است. این بیانیه که به عنوان “اعلامیه بلچلی” شناخته می شود، درک مشترکی از خطرات و فرصت های هوش مصنوعی ایجاد می کند.
در این بیانیه آمده است: «بسیاری از خطرات ناشی از هوش مصنوعی ذاتاً بینالمللی هستند و از این رو به بهترین وجه از طریق همکاری بینالمللی برطرف میشوند».
این بیانیه همچنین خواستار اقدام بین المللی در مورد “هوش مصنوعی مرزی” شده است. هوش مصنوعی مرزی یک کلمه کلیدی محبوب در اجلاس سران است که شامل مدل های پیشرفته و همه منظوره مانند ChatGPT OpenAI است. به گفته دولت بریتانیا، اینها سیستم هایی هستند که خطرناک ترین و فوری ترین خطرات را به همراه دارند.
امضاکنندگان این بیانیه موافقت کردند که “خطرات اساسی” ممکن است از مرز ناشی شود هوش مصنوعی. آنها هشدار دادند که در برخی موارد، هوش مصنوعی مرزی ممکن است “آسیب جدی، حتی فاجعه بار، عمدی یا غیرعمدی” ایجاد کند. اما منتقدان استدلال میکنند که چنین ترسهایی عمداً بیش از حد از بین رفتهاند.
لوئیس لیو، مدیر عامل یادگیری ماشین استارت آپ Eigen Technologies یکی از پر سر و صداترین منتقدان است. او گفت که هشدار آخرالزمانی “بیش از حد تحت تاثیر یک تحلیل عمیقاً ناقص و دستور کار تنظیم شده توسط آن شرکت های بزرگ فناوری است که به دنبال تسلط بر روند سیاست گذاری هستند.”
«این نوع عذابآوری تکراری است OpenAI و همتایانش که از تأثیرگذارترین لابیگران شرکتی در آستانه اجلاس سران بودهاند.»
در جامعه استارتآپها ترس واقعی وجود دارد که این انجمنی باشد که در آن فناوریهای بزرگ کنترل فرمان را در دست میگیرند، تا سعی کنند سیستمهای هوش مصنوعی منبع باز را از بین ببرند، شرایط بحث را تعیین کنند، و در انجام این کار، سیستمهای هوش مصنوعی را متوقف کنند. “رقابت.”
۲۸ کشور و اتحادیه اروپا اعلامیه بلچلی را امضا کرده اند #AISafety Summit موافق به:
⚠️ فرصت ها و خطرات کلیدی هوش مصنوعی را شناسایی کنید
🌍 درک جهانی از خطرات هوش مصنوعی مرزی ایجاد کنید
🔬 در تحقیقات علمی هوش مصنوعی همکاری کنیداطلاعات بیشتر:https://t.co/f6e8ABhoKz pic.twitter.com/SgRA8TjL1q
– بخش علوم، نوآوری و فناوری (@SciTechgovuk) 1 نوامبر ۲۰۲۳
تمرکز بر هوش مصنوعی مرزی نیز باعث خشم محققان شده است. ساندرا واچر، استاد فناوری و مقررات در دانشگاه آکسفورد، استدلال میکند که اتوماسیون شغلی، تبعیض و اثرات زیست محیطی نگرانیهای فوریتری هستند.
متأسفانه، این خارج از محدوده این اجلاس است و تمرکز اصلی بر روی “خطر از دست دادن کنترل” هوش مصنوعی است، به این معنا که هوش مصنوعی یک “اراده خود” را توسعه می دهد و خطری “وجودی” برای بشریت ایجاد می کند. او گفت.
با این حال، هیچ مدرک علمی وجود ندارد که نشان دهد ما در چنین مسیری هستیم، یا حتی چنین مسیری وجود دارد.
سبک بیش از ماده؟
در حالی که این اعلامیه هشدارهای جسورانه می دهد، اما در جزئیات بسیار سبک است. آنچه قابل توجه تر است ائتلاف کشورهایی است که از این پیمان حمایت کرده اند.
امضاکنندگان شامل ایالات متحده و چین هستند که توافقی نادر در صحنه جهانی امضا کردند.
در نمایش وحدت بیشتر، جینا ریموندو، وزیر بازرگانی ایالات متحده، و وو ژائوهوی، معاون وزیر علوم و فناوری چین، در یک جلسه کنار هم روی صحنه نشستند، جایی که هر یک از آنها در مورد هوش مصنوعی سخنرانی کردند.
با این حال، همکاری آنها در عمل بسیار محدود خواهد بود. این بیانیه خواستار «همکاری بینالمللی» و «گفتوگوی فراگیر جهانی» است، اما هیچ قانون، نقشه راه یا اصول اخلاقی خاصی پیشنهاد نمیکند.
مارتا بنت، معاون تحلیلگر اصلی در شرکت مشاوره تجاری Forrester، گفت: «این اعلامیه هیچ تأثیر واقعی بر نحوه تنظیم هوش مصنوعی نخواهد داشت.
بنت خاطرنشان می کند که در حال حاضر سیاست های مختلفی وجود دارد که حاوی مواد بسیار بیشتری است. از جمله آنها می توان به قانون هوش مصنوعی اتحادیه اروپا، فرمان اجرایی کاخ سفید در مورد هوش مصنوعی، و “کدهای رفتار بین المللی” G7 برای هوش مصنوعی اشاره کرد.
بنت افزود: «بهعلاوه، کشورها و نهادهای نمایندگیشده در اجلاس هوش مصنوعی با متن بیانیه بلچلی اگر حاوی جزئیات معناداری در مورد نحوه تنظیم هوش مصنوعی باشد، موافقت نمیکنند».
این بیانیه نقطه عطف شروع یک تلاش جهانی جدید برای ایجاد اعتماد عمومی به هوش مصنوعی با اطمینان از ایمن بودن آن است. https://t.co/EHACt7kRId
— Rishi Sunak (@RishiSunak) 1 نوامبر ۲۰۲۳
بنت علیرغم تردیدهایش در مورد تأثیرات دنیای واقعی، معتقد است که این توافق می تواند هدف مفیدی داشته باشد.
«اجلاس سران و بیانیه بلچلی بیشتر در مورد آن هستند [sending] سیگنالها و نشان دادن تمایل به همکاری، و این مهم است.» او گفت: «ما باید منتظر بمانیم و ببینیم که آیا نیت خوب با اقدام معنادار دنبال میشود یا خیر.
شاید مجبور نباشیم زیاد صبر کنیم. در جریان رویداد بلچلی پارک، اعلام شد که کره جنوبی میزبان دومین اجلاس سران در شش ماه دیگر خواهد بود. سپس یکی دیگر در فرانسه برگزار خواهد شد. با این حال، همانطور که اوضاع پیش میآید، به نظر میرسد قوانین داخلی مانع هر گونه معامله مهم بینالمللی میشود.
منبع: https://thenextweb.com/news/ai-safety-summit-bletchley-declaration-concerns