VentureBeat ارائه می دهد: AI Unleashed – یک رویداد اجرایی انحصاری برای رهبران داده های سازمانی. شبکه و یادگیری با همتایان صنعت. بیشتر بدانید
رهبران دولت های جهانی همچنان به روشنی نشان می دهند که دارند می گیرند خطر هوش مصنوعی و فرصت ها به طور جدی
امروز در جدیدترین اقدام دولت در مورد فناوری در حال تحول، گروه ۷ کشور صنعتی (G7) آیین نامه رفتار بین المللی برای سازمان های توسعه دهنده سیستم های هوش مصنوعی پیشرفته را اعلام کرد. این راهنمایی داوطلبانه، مبتنی بر «فرایند هوش مصنوعی هیروشیما» که در ماه می اعلام شد، با هدف ارتقای هوش مصنوعی ایمن، مطمئن و قابل اعتماد است.
این اطلاعیه در همان روزی منتشر شد که جو بایدن، رئیس جمهور ایالات متحده، پیامی را صادر کرد فرمان اجرایی در مورد “هوش مصنوعی ایمن، مطمئن و قابل اعتماد.”
این همچنین در حالی رخ می دهد که اتحادیه اروپا در حال نهایی کردن تعهد مالی خود است من قانون دارم و به دنبال ایجاد جدید توسط دبیر کل سازمان ملل متحد است هیئت مشاوران هوش مصنوعی. این نهاد متشکل از بیش از سه دوجین رهبر دولتی، فناوری و دانشگاهی جهانی، از تلاشهای جامعه بینالمللی برای اداره فناوری در حال تکامل حمایت خواهد کرد.
G7 در یک گزارش گفت: «ما بر فرصتهای نوآورانه و پتانسیل تحولآفرین سیستمهای هوش مصنوعی پیشرفته، بهویژه مدلهای پایه و هوش مصنوعی مولد تأکید میکنیم. بیانیه ای که امروز منتشر شد. ما همچنین نیاز به مدیریت خطرات و حفاظت از افراد، جامعه و اصول مشترک خود از جمله حاکمیت قانون و ارزشهای دموکراتیک را تشخیص میدهیم و انسانیت را در مرکز نگه میداریم.»
رهبران تاکید میکنند که مقابله با چنین چالشهایی مستلزم «شکل دادن یک حکومت فراگیر» برای هوش مصنوعی است.
یک چارچوب ۱۱ نقطه ای گسترده
G7 – متشکل از ایالات متحده، اتحادیه اروپا، بریتانیا، کانادا، فرانسه، آلمان، ایتالیا و ژاپن – چارچوب ۱۱ مادهای جدید را منتشر کرد تا به توسعهدهندگان کمک کند. ایجاد و استقرار هوش مصنوعی.
این گروه از رهبران جهانی از سازمانها خواستند که به آییننامه رفتار متعهد شوند، در حالی که اذعان داشتند که “حوزههای قضایی مختلف ممکن است رویکردهای منحصر به فرد خود را برای اجرای این اصول راهنما اتخاذ کنند.”
این ۱۱ امتیاز عبارتند از:
– اتخاذ تدابیر مناسب در طول توسعه برای شناسایی، ارزیابی و کاهش خطرات. این می تواند شامل تیم قرمز و آزمایش و کاهش برای اطمینان از قابل اعتماد بودن، ایمنی و امنیت باشد. توسعه دهندگان باید قابلیت ردیابی را در رابطه با مجموعه داده ها، فرآیندها و تصمیمات فعال کنند.
– شناسایی و کاهش آسیب پذیری ها و حوادث و الگوهای سوء استفاده پس از استقرار. این می تواند شامل نظارت بر آسیب پذیری ها، حوادث و خطرات در حال ظهور و تسهیل کشف شخص ثالث و کاربر و گزارش رویداد باشد.
– گزارش عمومی پیشرفته قابلیت های سیستم های هوش مصنوعی، محدودیت ها و حوزه های استفاده مناسب و نامناسب. این باید شامل گزارش شفافیتی باشد که توسط «فرایندهای مستندسازی قوی» پشتیبانی میشود.
– کار در جهت اشتراک گذاری اطلاعات و گزارش دهی مسئولانه حوادث. این میتواند شامل گزارشهای ارزیابی، اطلاعات مربوط به خطرات امنیتی و ایمنی، قابلیتهای مورد نظر یا ناخواسته و تلاش برای دور زدن پادمانها باشد.
– سیاستهای حاکمیت و مدیریت ریسک هوش مصنوعی را توسعه، اجرا و افشا کنید. این در مورد داده های شخصی، درخواست ها و خروجی ها صدق می کند.
– سرمایه گذاری و اجرا کنید کنترل های امنیتی از جمله امنیت فیزیکی، امنیت سایبری و حفاظت از تهدیدات داخلی. این ممکن است شامل ایمن کردن وزنها و الگوریتمهای مدل، سرورها و مجموعههای داده، از جمله اقدامات امنیتی عملیاتی و کنترلهای دسترسی فیزیکی/سایبری باشد.
– توسعه و استقرار مکانیسمهای اعتبار محتوای قابل اعتماد و منشأ مانند واترمارکینگ. داده های منشأ باید شامل شناسه سرویس یا مدلی باشد که محتوا را ایجاد کرده است و سلب مسئولیت نیز باید به کاربران اطلاع دهد که با یک سیستم هوش مصنوعی در تعامل هستند.
– اولویت بندی تحقیقات برای کاهش خطرات اجتماعی، ایمنی و امنیتی. این می تواند شامل انجام، همکاری و سرمایه گذاری در تحقیق و توسعه ابزارهای کاهش باشد.
– اولویت بندی توسعه سیستم های هوش مصنوعی برای رسیدگی به “بزرگترین چالش های جهان” از جمله بحران آب و هوا، بهداشت جهانی و آموزش. سازمان ها همچنین باید از طرح های سواد دیجیتال حمایت کنند.
– پیشبرد توسعه و پذیرش استانداردهای فنی بین المللی. این شامل کمک به توسعه و استفاده از استانداردهای فنی بین المللی و بهترین شیوه ها می شود.
– اجرای اقدامات مناسب برای ورود داده ها و حفاظت از داده های شخصی و مالکیت معنوی. این باید شامل شفافیت مناسب مجموعه داده های آموزشی باشد.
یک سند زنده “غیر جامع”.
G7 تأکید کرد که سازمانهای هوش مصنوعی باید به حاکمیت قانون، حقوق بشر، روند قانونی، تنوع، انصاف و عدم تبعیض، دموکراسی و «انسان محوری» احترام بگذارند. سیستم های پیشرفته نباید به گونه ای معرفی شوند که مضر باشد، ارزش های دموکراتیک را تضعیف کند، تروریسم را تسهیل کند، امکان سوء استفاده جنایی را فراهم آورد، “یا خطرات قابل توجهی برای ایمنی، امنیت و حقوق بشر ایجاد کند.”
این گروه همچنین متعهد شد که ابزارها و مکانیسمهای نظارتی را برای پاسخگویی سازمانها معرفی کند.
برای اطمینان از اینکه “مناسب برای هدف و پاسخگو” باقی می ماند، آیین نامه رفتار در صورت لزوم بر اساس اطلاعات دولت، دانشگاه و بخش خصوصی به روز می شود. فهرست اصول «غیر جامع» به عنوان یک سند زنده «بحث و تفصیل خواهد شد».
رهبران G7 همچنین تأکید میکنند که تلاشهای آنها برای ایجاد محیطی است که در آن مزایای هوش مصنوعی به حداکثر میرسد و در عین حال «خطرات آن برای منافع عمومی در سراسر جهان» کاهش مییابد. این باید شامل اقتصادهای در حال توسعه و نوظهور “با دیدگاه بستن شکاف های دیجیتال و دستیابی به گنجاندن دیجیتال” باشد.
حمایت از رهبران جهانی
این آیین نامه از سوی دیگر مقامات دولتی جهانی، از جمله ویرا جورووا، معاون ارزش ها و شفافیت کمیسیون اروپا تایید شد.
جورووا در بیانیه ای گفت: «قابل اعتماد، اخلاقی، ایمن و مطمئن، این هوش مصنوعی مولد ما می خواهیم و به آن نیاز داریم. با منشور رفتار، «اتحادیه اروپا و شرکای همفکر ما میتوانند در حصول اطمینان از اینکه هوش مصنوعی مزایایی را به همراه دارد و در عین حال خطرات آن را برطرف میکند، پیشرو باشند».
رئیس کمیسیون اروپا، اورسولا فون در لاین، به نوبه خود گفت که “مزایای بالقوه هوش مصنوعی برای شهروندان و اقتصاد بسیار زیاد است. با این حال، شتاب در ظرفیت هوش مصنوعی نیز چالش های جدیدی را به همراه دارد. من از توسعه دهندگان هوش مصنوعی می خواهم که امضا کنند. و این آیین نامه رفتاری را در اسرع وقت اجرا کنید.»
ماموریت VentureBeat این است که یک میدان شهر دیجیتال برای تصمیم گیرندگان فنی باشد تا دانشی در مورد فناوری سازمانی متحول کننده کسب کنند و معامله کنند. جلسات توجیهی ما را کشف کنید.
منبع: https://venturebeat.com/ai/to-promote-safe-secure-trustworthy-ai-g7-introduces-voluntary-code-of-conduct/