آیا آماده اید تا آگاهی بیشتری را به برند خود بیاورید؟ در نظر بگیرید که برای تور AI Impact Tour اسپانسر شوید. درباره فرصت ها بیشتر بدانید اینجا.
به عنوان هوش مصنوعی تقریباً در همه جنبه ها نفوذ می کند از زندگی مدرن، محققان در استارت آپ ها مانند آنتروپیک در حال کار برای جلوگیری از آسیب هایی مانند تعصب و تبعیض قبل از استقرار سیستم های جدید هوش مصنوعی هستند.
اکنون، در یک مطالعه مهم دیگر که توسط Anthropic منتشر شده است، محققان این شرکت آخرین یافتههای خود را در مورد تعصب هوش مصنوعی در مقالهای با عنوان: “ارزیابی و کاهش تبعیض در تصمیم گیری های مدل زبانی” مقاله تازه منتشر شده پیش داوری های ظریفی را که در تصمیم گیری های سیستم های هوش مصنوعی ریشه دوانده است، آشکار می کند.
این مقاله نه تنها این سوگیری ها را آشکار می کند، بلکه یک استراتژی جامع برای ایجاد برنامه های کاربردی هوش مصنوعی که منصفانه تر و منصفانه تر هستند، پیشنهاد می کند. انتشار این مطالعه در پی تحقیقات قبلی انجام شده توسط این شرکت در مورد پتانسیل انجام شده استخطرات فاجعه بار«هوش مصنوعی و ایجاد الف چارچوب قانون اساسی برای اخلاق هوش مصنوعی اوایل امسال
تحقیقات جدید این شرکت درست در زمان مناسب انجام می شود، زیرا صنعت هوش مصنوعی همچنان به بررسی دقیق این موضوع ادامه می دهد. پیامدهای اخلاقی رشد سریع فناوریبه ویژه در پی تحولات داخلی OpenAI پس از برکناری و انتصاب مجدد مدیر عامل سام آلتمن.
هدف روش تحقیق ارزیابی پیشگیرانه تبعیض در هوش مصنوعی است
کاغذ موجود در arXivیک رویکرد پیشگیرانه در ارزیابی تأثیر تبعیض آمیز مدل های زبانی بزرگ ارائه می دهد (LLMs) در سناریوهای پرمخاطره مانند امور مالی و مسکن – یک نگرانی قابل توجه زیرا هوش مصنوعی همچنان به مناطق حساس اجتماعی نفوذ می کند.
الکس تامکین، نویسنده اصلی این مقاله گفت: «در حالی که ما استفاده از مدلهای زبانی را برای تصمیمگیری خودکار پرمخاطره تأیید یا مجاز نمیدانیم، معتقدیم که پیشبینی خطرات در اسرع وقت بسیار مهم است.» کار ما به توسعهدهندگان و سیاستگذاران این امکان را میدهد تا از این مسائل پیشی بگیرند.»
مطالعه الگوهای تبعیض را در مدل زبانی پیدا می کند
Anthropic از مدل زبان Claude 2.0 خود استفاده کرد و مجموعه متنوعی از ۷۰ سناریو تصمیم گیری فرضی را تولید کرد که میتوانستند در یک مدل زبان وارد شوند.
به عنوان مثال می توان به تصمیمات اجتماعی پرمخاطره مانند اعطای وام، تایید درمان پزشکی و اعطای دسترسی به مسکن اشاره کرد. عوامل جمعیت شناختی مانند سن، جنسیت و نژاد را به طور سیستماتیک متفاوت می کند تا تشخیص تبعیض را امکان پذیر کند.
در این مقاله آمده است: «بهکارگیری این روش، الگوهای تبعیض مثبت و منفی را در مدل کلود ۲٫۰ در تنظیمات انتخابشده زمانی که هیچ مداخلهای اعمال نمیشود، نشان میدهد». به طور خاص، نویسندگان دریافتند که مدل آنها تبعیض مثبتی را به نفع زنان و افراد غیرسفید پوست نشان میدهد، در حالی که تبعیض علیه افراد بالای ۶۰ سال دارد.
مداخلات تبعیض اندازه گیری شده را کاهش می دهد
محققان در این مقاله توضیح میدهند که هدف از این تحقیق، توانمندسازی توسعهدهندگان و سیاستگذاران برای مقابله فعالانه با خطرات است: «از آنجایی که قابلیتها و برنامههای کاربردی مدل زبان همچنان در حال گسترش است، کار ما توسعهدهندگان و سیاستگذاران را قادر میسازد تا تبعیض را پیشبینی، اندازهگیری و رفع کنند.»
محققان راهبردهای کاهشی مانند اضافه کردن جملاتی مبنی بر غیرقانونی بودن تبعیض و درخواست از مدل ها برای بیان کلامی استدلال خود در حالی که از تعصبات اجتناب می کنند، پیشنهاد می کنند. این مداخلات به طور قابل توجهی تبعیض اندازه گیری شده را کاهش داد.
هدایت درس اخلاق هوش مصنوعی
این مقاله با آنتروپیک بسیار مورد بحث قرار گرفته است مقاله هوش مصنوعی قانون اساسی از اوایل امسال این مقاله مجموعهای از ارزشها و اصولی را که کلود هنگام تعامل با کاربران باید رعایت کند، از جمله مفید، بیضرر و صادق بودن، بیان میکند. همچنین مشخص کرد که کلود چگونه باید موضوعات حساس را مدیریت کند، به حریم خصوصی کاربر احترام بگذارد و از رفتار غیرقانونی خودداری کند.
جرد کاپلان، یکی از بنیانگذاران آنتروپیک، در ماه می، زمانی که قانون اساسی هوش مصنوعی منتشر شد، به VentureBeat گفت: “ما قانون اساسی فعلی کلود را با روح شفافیت به اشتراک می گذاریم.” “ما امیدواریم این تحقیق به جامعه هوش مصنوعی کمک کند تا مدلهای سودمندتری بسازد و ارزشهای آنها را واضحتر نشان دهد. ما همچنین این را به عنوان نقطه شروع به اشتراک میگذاریم – انتظار داریم به طور مداوم قانون اساسی کلود را بازبینی کنیم و بخشی از امید ما در به اشتراک گذاشتن این است. پست این است که تحقیقات و بحث های بیشتری در مورد طراحی قانون اساسی ایجاد خواهد کرد.”
همچنین از نزدیک با کار آنتروپیک در پیشاهنگ همخوانی دارد کاهش خطرات فاجعه آمیز در سیستم های هوش مصنوعی سام مککندلیش، یکی از بنیانگذاران Anthropic، بینشهایی را درباره توسعه خطمشی این شرکت و چالشهای بالقوه آن در سپتامبر به اشتراک گذاشت – که میتواند بینشهایی را در مورد روند انتشار تحقیقات سوگیری هوش مصنوعی نیز ارائه دهد.
“همانطور که اشاره کردید [in your question]مک کلندلیش در پاسخ به سوالی درباره هیئت مدیره آنتروپیک به VentureBeat گفت، برخی از این تستها و رویهها نیاز به قضاوت دارند. ما واقعاً نگران هستیم که هم مدلها را عرضه میکنیم و هم آنها را برای ایمنی آزمایش میکنیم، این وسوسه وجود دارد که آزمایشها را خیلی آسان کنیم، که نتیجهای که ما میخواهیم نیست. هیئت مدیره (و LTBT) مقداری نظارت مستقل را فراهم می کند. در نهایت، برای نظارت مستقل واقعی، بهتر است این نوع قوانین توسط دولت ها و نهادهای نظارتی اجرا شود، اما تا زمانی که این اتفاق نیفتد، این اولین گام است.”
شفافیت و مشارکت جامعه
با آزاد کردن کاغذ، مجموعه داده ها و درخواست هاآنتروپیک از شفافیت و گفتمان عمومی دفاع می کند – حداقل در این نمونه بسیار خاص – جامعه گسترده تر هوش مصنوعی را برای مشارکت در اصلاح سیستم های اخلاقی جدید دعوت می کند. این گشودگی تلاشهای جمعی را برای ایجاد سیستمهای هوش مصنوعی بیطرفانه تقویت میکند.
برای کسانی که مسئولیت تصمیم گیری فنی در شرکت ها را بر عهده دارند، تحقیقات Anthropic یک چارچوب ضروری برای بررسی دقیق استقرار هوش مصنوعی ارائه می دهد و اطمینان حاصل می کند که آنها با استانداردهای اخلاقی مطابقت دارند. همانطور که رقابت برای مهار هوش مصنوعی سازمانی تشدید می شود، صنعت برای ساخت فناوری هایی که کارایی را با برابری تطبیق می دهد به چالش کشیده می شود.
ماموریت VentureBeat این است که یک میدان شهر دیجیتال برای تصمیم گیرندگان فنی باشد تا دانشی در مورد فناوری سازمانی متحول کننده کسب کنند و معامله کنند. جلسات توجیهی ما را کشف کنید.
منبع: https://venturebeat.com/ai/anthropic-leads-charge-against-ai-bias-and-discrimination-with-new-research/