برای مشاهده جلسات VB Transform 2023 به کتابخانه درخواستی ما مراجعه کنید. اینجا ثبت نام کنید
ChatGPT و دیگر چتباتهای تولیدکننده متن و تصویر، تخیل میلیونها نفر را به خود جلب کردهاند – اما بدون بحث نیست. با وجود عدم قطعیت ها، کسب و کارها در حال حاضر در بازی هستند، خواه با جدیدترین ها بازی کنند هوش مصنوعی مولد چت بات ها یا استقرار فرآیندهای مبتنی بر هوش مصنوعی در سراسر شرکت خود.
به همین دلیل ضروری است که کسبوکارها نگرانیهای فزاینده در مورد غیرقابل پیشبینی بودن هوش مصنوعی و همچنین تأثیرات قابل پیشبینی و بالقوه مضر برای کاربران نهایی را برطرف کنند. عدم انجام این کار پیشرفت و وعده هوش مصنوعی را تضعیف خواهد کرد. و اگرچه دولت ها در حال حرکت برای ایجاد قوانینی برای استفاده اخلاقی هوش مصنوعی هستند، دنیای تجارت نمی تواند صبر کند.
شرکت ها باید نرده های محافظ خود را راه اندازی کنند. این فناوری به سادگی بسیار سریع در حال حرکت است – بسیار سریعتر از مقررات هوش مصنوعی، جای تعجب نیست – و خطرات تجاری بسیار زیاد است. ممکن است یادگیری در حین حرکت وسوسه انگیز باشد، اما پتانسیل انجام یک اشتباه پرهزینه مخالف یک رویکرد موقت است.
برای جلب اعتماد خود تنظیم کنید
دلایل زیادی وجود دارد که کسبوکارها تلاشهای هوش مصنوعی خود را تنظیم میکنند – از جمله ارزشهای شرکتی و آمادگی سازمانی. اما مدیریت ریسک ممکن است در صدر لیست باشد. هرگونه اشتباه می تواند حریم خصوصی مشتری، اعتماد مشتری و شهرت شرکت را تضعیف کند.
خوشبختانه، مشاغل زیادی می توانند برای ایجاد اعتماد در برنامه ها و فرآیندهای هوش مصنوعی انجام دهند. انتخاب فناوریهای زیربنایی مناسب – آنهایی که توسعه و استفاده متفکرانه از هوش مصنوعی را تسهیل میکنند – بخشی از پاسخ است. به همان اندازه مهم این است که اطمینان حاصل شود که تیم های سازنده این راه حل ها در مورد نحوه پیش بینی و کاهش خطرات آموزش دیده اند.
موفقیت نیز در گرو داشتن تصور خوب است حکمرانی هوش مصنوعی. رهبران تجاری و فناوری باید بر مجموعه دادهها و مدلهای زبانی مورد استفاده، ارزیابی ریسک، تأییدیهها، مسیرهای حسابرسی و موارد دیگر نظارت داشته باشند. تیمهای داده – از مهندسان آمادهکننده دادهها گرفته تا دانشمندان دادهای که مدلها را میسازند – باید مراقب تعصب هوش مصنوعی در هر مرحله باشند و اجازه ندهند که در فرآیندها و نتایج تداوم یابد.
مدیریت ریسک باید از هم اکنون آغاز شود
سازمان ها ممکن است در نهایت چاره ای جز اتخاذ برخی از این اقدامات داشته باشند. قوانینی که اکنون در حال تدوین است میتواند در نهایت کنترل و تعادل را برای اطمینان از اینکه هوش مصنوعی با مصرفکنندگان منصفانه رفتار میکند الزامی کند. تا کنون، مقررات جامع هوش مصنوعی هنوز تدوین نشده است، اما قبل از اینکه این اتفاق بیفتد، فقط موضوع زمان است.
تا به امروز در ایالات متحده، کاخ سفید “طرحنامه ای برای منشور حقوق هوش مصنوعی” منتشر کرده است که اصولی را برای هدایت توسعه و استفاده از هوش مصنوعی – از جمله محافظت در برابر تبعیض الگوریتمی و توانایی انصراف از فرآیندهای خودکار ارائه می کند. در همین حال، آژانسهای فدرال در حال شفافسازی الزامات موجود در مقررات موجود، مانند موارد موجود در قانون FTC و قانون فرصتهای اعتباری برابر، به عنوان اولین خط دفاعی هوش مصنوعی برای عموم هستند.
اما شرکت های هوشمند منتظر هر گونه قوانین فراگیر دولتی نمی مانند. مدیریت ریسک باید از هم اکنون آغاز شود.
مقررات هوش مصنوعی: کاهش ریسک در عین افزایش اعتماد
این فرضی را در نظر بگیرید: یک فرد مضطرب درخواستی را به مرکز پشتیبانی مجهز به چت بات کلینیک مراقبت های بهداشتی ارسال می کند. کاربر می گوید: «احساس غمگینی دارم. “باید چکار کنم؟”
این یک موقعیت بالقوه حساس است و نشان می دهد که بدون بررسی دقیق هوش مصنوعی با چه سرعتی ممکن است مشکل ظاهر شود. مثلاً اگر فرد در وسط یک بحران شخصی باشد چه اتفاقی می افتد؟ آیا ارائه دهنده مراقبت های بهداشتی با مسئولیت بالقوه مواجه می شود اگر چت بات پاسخ ظریفی را که لازم است ارائه ندهد – یا بدتر از آن، اقدامی را توصیه می کند که ممکن است مضر باشد؟ سناریوهای مشابه سخت نویسی – و پرخطر – می توانند در هر صنعتی ظاهر شوند.
این توضیح می دهد که چرا آگاهی و مدیریت ریسک تمرکز برخی از چارچوب های نظارتی و غیرقانونی است. قانون پیشنهادی هوش مصنوعی اتحادیه اروپا به موارد استفاده پرخطر و غیرقابل قبول میپردازد. در ایالات متحده، چارچوب مدیریت ریسک مؤسسه ملی استانداردها و فناوری برای به حداقل رساندن خطر برای افراد و سازمان ها در نظر گرفته شده است، در حالی که “قابلیت اعتماد سیستم های هوش مصنوعی” را نیز افزایش می دهد.
چگونه قابل اعتماد بودن هوش مصنوعی را تعیین کنیم؟
چگونه کسی تشخیص می دهد که آیا هوش مصنوعی قابل اعتماد است؟ روششناسیهای مختلفی در زمینههای مختلف به وجود میآیند، چه دستورالعملهای کمیسیون اروپا برای هوش مصنوعی قابل اعتماد، پیشنویس قانون هوش مصنوعی اتحادیه اروپا، نقشه راه تضمین هوش مصنوعی بریتانیا و کتاب سفید اخیر در مورد مقررات هوش مصنوعی، یا AI Verify سنگاپور.
AI Verify به دنبال ایجاد اعتماد از طریق شفافیت است سازمان برای همکاری و توسعه اقتصادی. این کار را با ارائه چارچوبی انجام می دهد تا اطمینان حاصل شود که سیستم های هوش مصنوعی اصول پذیرفته شده را رعایت می کنند اخلاق هوش مصنوعی. این یک تغییر در موضوعی است که به طور گسترده به اشتراک گذاشته شده است: هوش مصنوعی خود را از توسعه تا استقرار کنترل کنید.
با این حال، هر چقدر هم که تلاشهای مختلف دولت حسن نیت داشته باشد، هنوز هم بسیار مهم است که کسبوکارها به جای منتظر ماندن برای قانون، قوانین مدیریت ریسک خود را ایجاد کنند. استراتژیهای هوش مصنوعی سازمانی زمانی بیشترین شانس موفقیت را دارند که برخی از اصول رایج – ایمن، منصفانه، قابل اعتماد و شفاف – در پیادهسازی قرار بگیرند. این اصول باید قابل اجرا باشند، که نیاز به ابزارهایی برای جاسازی سیستماتیک آنها در خطوط لوله هوش مصنوعی دارد.
افراد، فرآیندها و پلتفرم ها
نکته مثبت این است که نوآوری کسب و کار مبتنی بر هوش مصنوعی می تواند یک تمایز رقابتی واقعی باشد، همانطور که قبلاً در زمینه هایی مانند کشف دارو، پیش بینی ادعاهای بیمه و نگهداری پیش بینی می بینیم. اما پیشرفتها بدون ریسک به دست نمیآیند، به همین دلیل است که حکمرانی جامع باید همراه با توسعه و استقرار هوش مصنوعی باشد.
تعداد فزاینده ای از سازمان ها با در نظر گرفتن افراد، فرآیندها و پلتفرم ها، اولین گام های خود را ترسیم می کنند. آنها در حال تشکیل تیمهای اقدام هوش مصنوعی با نمایندگی در سراسر بخشها، ارزیابی معماری دادهها و بحث در مورد چگونگی آن هستند علم داده باید سازگار شود.
رهبران پروژه چگونه همه اینها را مدیریت می کنند؟ برخی از آنها با کمی بیشتر از ایمیل و تماس های ویدیویی برای هماهنگی ذینفعان و صفحات گسترده برای ثبت و ثبت پیشرفت کار شروع می کنند. که در مقیاس کوچک کار می کند. اما ابتکارات هوش مصنوعی در سطح سازمانی باید فراتر رفته و تصمیمات و دلایل اتخاذ شده و همچنین جزئیات عملکرد مدل ها را در طول چرخه عمر پروژه نشان دهد.
حکمرانی قوی مطمئن ترین راه است
به طور خلاصه، ارزش خودگردانی از یک سو از مستندسازی فرآیندها و از سوی دیگر اطلاعات کلیدی در مورد مدلها در زمان توسعه و در مرحله استقرار ناشی میشود. در مجموع، این یک تصویر کامل برای انطباق فعلی و آینده ارائه می دهد.
مسیرهای حسابرسی که توسط این نوع زیرساخت حاکمیتی امکان پذیر شده است برایقابلیت توضیح هوش مصنوعی” این نه تنها شامل قابلیتهای فنی مورد نیاز برای توضیحپذیری میشود، بلکه ملاحظات اجتماعی را نیز شامل میشود – توانایی سازمان برای ارائه منطقی برای مدل و پیادهسازی هوش مصنوعی خود.
همه اینها به این نتیجه می رسد که حکمرانی قوی مطمئن ترین مسیر برای ابتکارات موفق هوش مصنوعی است – آنهایی که اعتماد مشتری را ایجاد می کنند، ریسک را کاهش می دهند و نوآوری در کسب و کار را هدایت می کنند. توصیه من: منتظر خشک شدن جوهر روی قوانین و مقررات دولتی نباشید. این فناوری سریعتر از سیاست پیش می رود.
Jacob Beswick مدیر راه حل های مدیریت هوش مصنوعی در دیتایکو.
DataDecisionMakers
به انجمن VentureBeat خوش آمدید!
DataDecisionMakers جایی است که کارشناسان، از جمله افراد فنی که کار داده را انجام می دهند، می توانند بینش ها و نوآوری های مرتبط با داده را به اشتراک بگذارند.
اگر میخواهید درباره ایدههای پیشرفته و اطلاعات بهروز، بهترین شیوهها و آینده فناوری داده و داده مطالعه کنید، به ما در DataDecisionMakers بپیوندید.
حتی ممکن است در نظر بگیرید مشارکت در مقاله از خودت!
منبع: https://venturebeat.com/ai/why-self-regulation-of-ai-is-a-smart-business-move/