اگر OpenAI و دیگر مدلهای هوش مصنوعی، شرکتهای هوش مصنوعی راه خود را داشته باشند، برای حفظ صلح جهانی، از انداختن یک یا دو بمب هستهای به کشورهایی مانند روسیه، چین و احتمالاً ایالات متحده دریغ نمیکنند.
ادغام هوش مصنوعی در بخشهای مختلف، از جمله ارتش ایالات متحده، هم با اشتیاق و هم با احتیاط مواجه شده است. با این حال، یک مطالعه اخیر خطرات بالقوه مرتبط با نقش هوش مصنوعی در تصمیمگیری سیاست خارجی را روشن میکند و تمایلات نگرانکننده به طرفداری از تشدید تنش نظامی بر سر قطعنامههای صلحآمیز را آشکار میکند.
این مطالعه که توسط محققان موسسه فناوری جورجیا، دانشگاه استنفورد، دانشگاه نورث ایسترن و ابتکار عمل شبیهسازی بحران و بازی هوور انجام شد، به بررسی رفتار مدلهای هوش مصنوعی در سناریوهای جنگ شبیهسازی شده به عنوان تصمیمگیرندگان اولیه میپردازد.
قابلتوجه، مدلهای هوش مصنوعی از OpenAI، Anthropic و Meta به همراه GPT-3.5 و GPT-4 OpenAI که در تشدید درگیریها، از جمله نمونههایی از جنگ هستهای، نقشآفرینی میکنند، به طور مفصل مورد مطالعه قرار گرفتند.
این تحقیق روند نگرانکنندهای را کشف کرد که در آن مدلهای هوش مصنوعی تمایل بیشتری به تنشهای ناگهانی و غیرقابل پیشبینی نشان میدادند که اغلب منجر به تشدید تنشهای نظامی و در موارد شدید، استفاده از سلاحهای هستهای میشد.
به گفته محققان، این پویاییهای مبتنی بر هوش مصنوعی سناریوی «مسابقه تسلیحاتی» را بازتاب میدهند و به افزایش سرمایهگذاریهای نظامی و تشدید درگیریها دامن میزنند.
توجیهات ارائه شده توسط OpenAI’s GPT-4 برای حمایت از جنگ هسته ای در سناریوهای شبیه سازی شده بسیار نگران کننده بود.
جملاتی مانند “من فقط می خواهم در جهان صلح داشته باشم” و “بعضی می گویند باید آنها را خلع سلاح کنند، برخی دیگر دوست دارند وضعیت بدنی داشته باشند.” ما داریمش! بیایید از آن استفاده کنیم!» نگرانیهای جدی در میان محققان ایجاد کرد و استدلال هوش مصنوعی را به استدلال یک دیکتاتور نسلکشی تشبیه کرد.
در حالی که OpenAI تعهد خود را برای توسعه هوش مصنوعی برای بهبود بشریت حفظ میکند، افشاگریهای این مطالعه در همسویی رفتار مدلهایش با این مأموریت تردید ایجاد میکند.
منتقدان نشان میدهند که شاید دادههای آموزشی گنجانده شده در این سیستمهای هوش مصنوعی به طور ناخواسته بر تمایل آنها به راهحلهای نظامی تأثیر گذاشته است.
پیامدهای این مطالعه فراتر از دانشگاه است و با بحثهای جاری در پنتاگون ایالات متحده طنینانداز میشود، جایی که طبق گزارشها، آزمایش با هوش مصنوعی، با استفاده از «دادههای مخفی» در حال انجام است. مقامات نظامی به استقرار بالقوه هوش مصنوعی در آینده نزدیک فکر می کنند و نگرانی ها را در مورد سرعت تشدید درگیری افزایش می دهد.
همزمان، ظهور پهپادهای غواصی مجهز به هوش مصنوعی بر ادغام فزاینده فناوریهای هوش مصنوعی در جنگهای مدرن تأکید میکند و مدیران فنی را به سمتی میکشد که به نظر میرسد یک مسابقه تسلیحاتی در حال افزایش است.
از آنجایی که کشورهای سراسر جهان به طور فزاینده ای از هوش مصنوعی در عملیات نظامی استقبال می کنند، این مطالعه یادآور نیاز فوری به توسعه و مدیریت هوش مصنوعی مسئولانه برای کاهش خطر تشدید درگیری شدید است.
منبع: https://www.firstpost.com/tech/genocidal-ai-chatgpt-powered-war-simulator-drops-two-nukes-on-russia-china-for-world-peace-13704402.html