نامههای سرگشاده هشداردهنده درباره خطرات هوش مصنوعی در حال جمعآوری است – با به صدا درآمدن زنگ خطر توسط فنآوران و محققان برتر توسعه غیر قابل کنترلفشار دادن تهدیدات وجودیو فقدان مقررات.
اکنون، تنها یک هفته قبل از اجلاس سران هوش مصنوعی در لندن، الف نامه جدید از شرکت ها و دولت ها می خواهد که از استفاده ایمن و اخلاقی از هوش مصنوعی اطمینان حاصل کنند. امضاکنندگان شامل تعدادی از دانشگاهیان اروپایی، سه برنده جایزه تورینگ و حتی به اصطلاح پدرخوانده های هوش مصنوعی یوشوا بنجیو و جفری هینتون هستند.
نه تصادفی، مه گذشته، هینتون از گوگل خارج شوید آزادانه در مورد خطرات احتمالی صحبت کنند هوش مصنوعی. برای افزودن به فضای دیستوپیایی، یک ماه قبل، ایلان ماسک هشدار داد که هوش مصنوعی می تواند منجر به “تخریب تمدن” و ساندار پیچای گوگل شود پذیرفته خطرات را حفظ کنید [him] شب بیدار
در نامهای که روز سهشنبه منتشر شد، امضاکنندگان تأکید کردند که در حالی که قابلیتهای این فناوری میتواند تأثیر بسیار مثبتی بر بشریت داشته باشد، عدم سرمایهگذاری در ایمنی و کاهش آسیبها میتواند باعث شود دقیقا اثر معکوس.
آنها خاطرنشان کردند که هوش مصنوعی قبلاً از توانایی های انسانی در حوزه های خاص پیشی گرفته است و هشدار دادند که “توانایی ها و رفتارهای پیش بینی نشده” ممکن است بدون برنامه ریزی صریح ظاهر شوند.
در این نامه آمده است: «بدون احتیاط کافی، ممکن است به طور غیرقابل برگشتی کنترل سیستمهای هوش مصنوعی مستقل را از دست بدهیم و مداخله انسانی را بیاثر کنیم.» این می تواند منجر به یک سری خطرات نگران کننده و فزاینده شود، از جرایم سایبری و دستکاری اجتماعی تا از دست دادن مقیاس بزرگ زیست کره و… انقراض.
با توجه به خطرات، امضاکنندگان از شرکت ها می خواهند که حداقل یک سوم بودجه تحقیق و توسعه خود را به ایمنی و اخلاق هوش مصنوعی اختصاص دهند. آنها همچنین از دولت ها می خواهند که استانداردها و مقررات را اجرا کنند و همکاری بین المللی را تسهیل کنند تا از بی احتیاطی و سوء استفاده جلوگیری شود.
اتحادیه اروپا در راه است قانون هوش مصنوعی اولین مقررات اختصاصی هوش مصنوعی در جهان خواهد بود که به دنبال تعیین مجموعه ای واضح از قوانین در مورد توسعه فناوری است. اما با وجود هشدارها، بخش تجاری نگرانی های مختلفی را بیان کرده استترس از اینکه مقررات نوآوری را خفه کند.
در واقع، به نظر می رسد که گام برداشتن در خط باریک بین مقررات هوش مصنوعی و پیشرفت، یکی از بزرگترین چالش هایی است که امروزه دولت ها با آن مواجه هستند. اما دشواری ارائه شده به این معنا نیست (و نباید) ایمنی و حاکمیت در درجه دوم اهمیت قرار گیرند.
دانشگاهیان در پایان گفتند: “برای هدایت هوش مصنوعی به سمت نتایج مثبت و دوری از فاجعه، باید جهت گیری مجدد کنیم. اگر خرد لازم را داشته باشیم که آن را طی کنیم، مسیری مسئولانه وجود دارد.”
منبع: https://thenextweb.com/news/we-may-lose-control-autonomous-ai-warn-academics