گزارشی نشان داده است که بسیاری از ابزارهای حاکمیتی هوش مصنوعی به دلیل «رفعهای معیوب» در اندازهگیری عادلانه و توضیحپذیری سیستمهای هوش مصنوعی ناکارآمد هستند.
بسیاری از این ابزارها که توسط شرکتهایی مانند مایکروسافت، گوگل و آیبیام توسعه یافتهاند، توسط دولتها برای تعیین عدالت و مسئولیتپذیری سیستمهای هوش مصنوعی استفاده میشوند.
اما الف گزارش منتشر شده توسط انجمن جهانی حریم خصوصی ادعا می کند که بسیاری از این سیستم ها اغلب به دلیل فقدان دستورالعمل های خاص در مورد استفاده از آنها، و فقدان دستورالعمل ها و الزامات تضمین کیفیت، به طور نادرست استفاده می شوند.
ابزارهای معیوب و یک چارچوب ژولیده
این گزارش ۱۸ ابزار حاکمیتی طراحی شده برای کاهش خطر سوگیری و دقت هوش مصنوعی را بررسی کرد و دریافت که فقدان مقررات، چارچوب و الزامات پایه به معنای استفاده نادرست از بسیاری از ابزارها است.
پم دیکسون، بنیانگذار و مدیر اجرایی مجمع جهانی حریم خصوصی، خاطرنشان کرد: «بیشتر ابزارهای مدیریت هوش مصنوعی که امروزه مورد استفاده قرار میگیرند، به نوعی در حال لنگیدن هستند. “یک مشکل بزرگ این است که هیچ الزامات ثابت شده ای برای تضمین کیفیت یا ارزیابی وجود ندارد. هیچ دستورالعملی در مورد زمینه ای که قرار است برای آن استفاده شود یا حتی تضاد منافع وجود ندارد.”
تعدادی از محققانی که به عنوان بخشی از گزارش مصاحبه شده اند، از ابزارهای حاکمیتی هوش مصنوعی انتقاد کردند که “استفاده های غیرقابل برچسب از ابزارهای بالقوه معیوب یا نامناسب را ذکر می کنند، توصیه می کنند یا ترکیب می کنند”، که می تواند عدالت و توضیح هوش مصنوعی را به خطر بیندازد. این گزارش همچنین اشاره کرد که تعدادی از ابزارهای حاکمیتی دارای معیارهای تاثیر متفاوتی هستند که فقط در زمینههای خاص اعمال میشوند.
یکی از این نمونه ها قانون چهار پنجم است که به طور گسترده در زمینه اشتغال ایالات متحده به عنوان معیاری برای عادلانه بودن فرآیندهای انتخاب استخدام شناخته شده است. با این حال، یک مطالعه در سال ۲۰۱۹ نشان داد که این قانون در تعدادی از ابزارهای مورد استفاده برای سنجش عدالت هوش مصنوعی در زمینههایی که هیچ ارتباطی با اشتغال ندارند، بدون در نظر گرفتن تأثیر بالقوه بر سیستمهای آنها کدگذاری شده است.
این گزارش نشان داد که “به نظر نمی رسد استانداردها و راهنمایی ها برای ارزیابی کیفیت و اطمینان از ابزارهای حاکمیتی هوش مصنوعی در سراسر اکوسیستم هوش مصنوعی سازگار باشد.” فقدان تضمین کیفیت جهانی به این معنی است که تفاوتهای قابلتوجهی در نحوه تنظیم ابزارهای حکمرانی هوش مصنوعی وجود دارد و این گزارش بیان میکند که باید کارهای بیشتری انجام شود، «برای ایجاد یک محیط ابزارهای حاکمیتی ارزیابیکننده هوش مصنوعی که اعتبارسنجی، شفافیت و سایر اندازهگیریها را تسهیل میکند. ” “
در این گزارش خلاصه میشود که «ابزارهای مدیریت هوش مصنوعی ناقص یا ناکارآمد میتوانند یک حس اعتماد به نفس کاذب ایجاد کنند، مشکلات ناخواسته ایجاد کنند و به طور کلی وعدههای سیستمهای هوش مصنوعی را تضعیف کنند».
از طریق VentureBeat
بیشتر از TechRadar Pro
منبع: https://www.techradar.com/pro/ai-governance-is-now-an-even-bigger-problem-as-most-governance-tools-are-limping-along