حاکمیت هوش مصنوعی اکنون یک مشکل بزرگتر است، زیرا اکثر ابزارهای حاکمیتی “لنگ می زنند”

گزارشی نشان داده است که بسیاری از ابزارهای حاکمیتی هوش مصنوعی به دلیل «رفع‌های معیوب» در اندازه‌گیری عادلانه و توضیح‌پذیری سیستم‌های هوش مصنوعی ناکارآمد هستند.

بسیاری از این ابزارها که توسط شرکت‌هایی مانند مایکروسافت، گوگل و آی‌بی‌ام توسعه یافته‌اند، توسط دولت‌ها برای تعیین عدالت و مسئولیت‌پذیری سیستم‌های هوش مصنوعی استفاده می‌شوند.

اما الف گزارش منتشر شده توسط انجمن جهانی حریم خصوصی ادعا می کند که بسیاری از این سیستم ها اغلب به دلیل فقدان دستورالعمل های خاص در مورد استفاده از آنها، و فقدان دستورالعمل ها و الزامات تضمین کیفیت، به طور نادرست استفاده می شوند.

ابزارهای معیوب و یک چارچوب ژولیده

این گزارش ۱۸ ابزار حاکمیتی طراحی شده برای کاهش خطر سوگیری و دقت هوش مصنوعی را بررسی کرد و دریافت که فقدان مقررات، چارچوب و الزامات پایه به معنای استفاده نادرست از بسیاری از ابزارها است.

پم دیکسون، بنیانگذار و مدیر اجرایی مجمع جهانی حریم خصوصی، خاطرنشان کرد: «بیشتر ابزارهای مدیریت هوش مصنوعی که امروزه مورد استفاده قرار می‌گیرند، به نوعی در حال لنگیدن هستند. “یک مشکل بزرگ این است که هیچ الزامات ثابت شده ای برای تضمین کیفیت یا ارزیابی وجود ندارد. هیچ دستورالعملی در مورد زمینه ای که قرار است برای آن استفاده شود یا حتی تضاد منافع وجود ندارد.”

تعدادی از محققانی که به عنوان بخشی از گزارش مصاحبه شده اند، از ابزارهای حاکمیتی هوش مصنوعی انتقاد کردند که “استفاده های غیرقابل برچسب از ابزارهای بالقوه معیوب یا نامناسب را ذکر می کنند، توصیه می کنند یا ترکیب می کنند”، که می تواند عدالت و توضیح هوش مصنوعی را به خطر بیندازد. این گزارش همچنین اشاره کرد که تعدادی از ابزارهای حاکمیتی دارای معیارهای تاثیر متفاوتی هستند که فقط در زمینه‌های خاص اعمال می‌شوند.

یکی از این نمونه ها قانون چهار پنجم است که به طور گسترده در زمینه اشتغال ایالات متحده به عنوان معیاری برای عادلانه بودن فرآیندهای انتخاب استخدام شناخته شده است. با این حال، یک مطالعه در سال ۲۰۱۹ نشان داد که این قانون در تعدادی از ابزارهای مورد استفاده برای سنجش عدالت هوش مصنوعی در زمینه‌هایی که هیچ ارتباطی با اشتغال ندارند، بدون در نظر گرفتن تأثیر بالقوه بر سیستم‌های آن‌ها کدگذاری شده است.

این گزارش نشان داد که “به نظر نمی رسد استانداردها و راهنمایی ها برای ارزیابی کیفیت و اطمینان از ابزارهای حاکمیتی هوش مصنوعی در سراسر اکوسیستم هوش مصنوعی سازگار باشد.” فقدان تضمین کیفیت جهانی به این معنی است که تفاوت‌های قابل‌توجهی در نحوه تنظیم ابزارهای حکمرانی هوش مصنوعی وجود دارد و این گزارش بیان می‌کند که باید کارهای بیشتری انجام شود، «برای ایجاد یک محیط ابزارهای حاکمیتی ارزیابی‌کننده هوش مصنوعی که اعتبارسنجی، شفافیت و سایر اندازه‌گیری‌ها را تسهیل می‌کند. ” “

در این گزارش خلاصه می‌شود که «ابزارهای مدیریت هوش مصنوعی ناقص یا ناکارآمد می‌توانند یک حس اعتماد به نفس کاذب ایجاد کنند، مشکلات ناخواسته ایجاد کنند و به طور کلی وعده‌های سیستم‌های هوش مصنوعی را تضعیف کنند».

از طریق VentureBeat

بیشتر از TechRadar Pro


منبع: https://www.techradar.com/pro/ai-governance-is-now-an-even-bigger-problem-as-most-governance-tools-are-limping-along

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *