حاکمیت محاسباتی: کلید ایجاد هوش مصنوعی ایمن و سازگار

خطرات برای شرکت های در حال توسعه به طور فزاینده ای افزایش می یابد هوش مصنوعی در صنایع بسیار تحت نظارت در بخش هایی مانند بهداشت و درمان و دارایی، مالیه، سرمایه گذاریانطباق فقط یک تعهد قانونی نیست، بلکه جنبه ای حیاتی برای ایجاد اعتماد و یکپارچگی بین سازمان ها و سازمان ها است. مشتریان.

از آنجایی که مدل‌های یادگیری ماشین نیاز به تنوع بیشتری دارند داده ها – اغلب از منابع متعدد در سازمان های مختلف – نیاز به یک راه حل سازگار افزایش می یابد. در حالی که توسعه‌دهندگان برای ایجاد پیچیده‌ترین مدل‌های یادگیری ماشین عجله دارند، نگهبانان داده به دنبال وسیله‌ای هستند تا داده‌های خود را در اختیار این توسعه‌دهندگان قرار دهند – و بنابراین به ارزش آن پی می‌برند.

یکی از راه حل های در حال ظهور، حاکمیت محاسباتی است که توانایی کنترل، نظارت و ردیابی تمام جنبه های محاسبات روی داده ها را توصیف می کند. برای شرکت‌هایی که روی ترابایت داده‌های با ارزش نشسته‌اند، حاکمیت محاسباتی راهی برای در دسترس قرار دادن داده‌ها برای ML است، با انجام این کار در عین حصول اطمینان از حاکمیت، امنیت و حریم خصوصی. اگرچه نوپا است، اما می تواند جزئی در باز کردن پتانسیل واقعی داده ها برای صاحبان داده باشد.

تعریف کنترل های خود

حاکمیت محاسباتی به متولیان داده ها – سازمان هایی که داده ها را در اختیار دارند – اجازه می دهد تا سطح مورد نیاز حریم خصوصی را تنظیم کنند و کنترل های دسترسی را در سطح محاسباتی تعریف کنند. این دیکته می کند که چه کسی می تواند محاسبات را بر روی کدام یک از دارایی های داده خود و برای چه هدفی انجام دهد. در اصل، فقط محاسبات مجاز که با الزامات نگهبان مطابقت دارند می توانند روی داده ها اجرا شوند و از رعایت قوانین حریم خصوصی و هوش مصنوعی اطمینان حاصل کنند.

نتیجه این است که شرکت‌ها می‌توانند نظارت کنند و ردیابی کنند که چه کسی با داده‌هایشان چه کاری انجام می‌دهد، در حالی که همچنین توانایی کاربران داده‌ها را برای به‌روزرسانی مدل‌های خود تا زمانی که با خط‌مشی‌های دارایی مطابقت دارند، حفظ می‌کنند.

این به چند دلیل ضروری است. اولاً، به سازمان‌ها کمک می‌کند تا از مقرراتی مانند GDPR و HIPAA پیروی کنند، که سازمان‌ها را ملزم می‌کند از حریم خصوصی و امنیت داده‌های شخصی محافظت کنند. حاکمیت محاسباتی به سازمان‌ها کمک می‌کند تا با اطمینان از اینکه فقط افراد مجاز به داده‌ها دسترسی محاسباتی دارند، داده‌ها فقط برای مقاصد تایید شده استفاده می‌شوند و داده‌های خام هرگز مستقیماً به اشتراک گذاشته نمی‌شوند، به سازمان‌ها کمک می‌کند تا این الزامات را برآورده کنند.

علاوه بر این، حاکمیت محاسباتی نقشی حیاتی در توسعه مدل‌های هوش مصنوعی اخلاقی و مسئولانه ایفا می‌کند. به عنوان مثال، در مراقبت‌های بهداشتی، به این معنی است که مدل‌های هوش مصنوعی می‌توانند صرفاً بر اساس داده‌ها برای اهدافی که مطابقت دارند آموزش داده شوند و در عین حال از حفظ حریم خصوصی اطمینان حاصل شود.

در دسترس قرار دادن داده ها

داده‌ها خط خونی سازمان‌های مدرن هستند، اما به اندازه بینش‌هایی ارزشمند هستند که می‌توان از آن استخراج کرد.

هر بار که داده ها جابجا می شوند، در معرض تهدیداتی مانند سرقت داده ها و تداخل داده ها قرار می گیرند. اگر با اشتراک گذاری با سازمان دیگری به خارج از محیط خود منتقل شود، مالک کنترل نحوه استفاده از داده های خود را از دست می دهد. در نتیجه، داده ها مقدار زیادی از ارزش خود را برای مالک از دست می دهند.

یادگیری فدرال روشی برای آموزش مدل‌های هوش مصنوعی بدون انتقال داده‌ها از مکان امن آن است – که به نگهبانان داده اجازه می‌دهد تا داده‌های خود را در یک محیط امن در اختیار توسعه‌دهندگان قرار دهند.

حفاظت از داده های اختصاصی به عنوان یک دارایی با ارزش برای سازمان ها در هر اندازه ای بسیار مهم است. این امر نگهبانان داده را قادر می سازد تا ارزش بیشتری کسب کنند (از تجاری سازی یا تولید آن). با انتقال ندادن داده‌ها، نگهبان در کنترل کامل باقی می‌ماند، مطمئن می‌شود که شما الزامات اقامت و حاکمیت داده‌ها را برآورده می‌کنید و ارزش تجاری را حفظ می‌کنید.

توانایی رها کردن داده‌ها در محلی که در آن ساکن است نیز از انطباق با مقرراتی مانند GDPR که حاوی قوانین مربوط به اقامت داده‌ها است و قانون هوش مصنوعی اتحادیه اروپا که الزامات سخت‌گیرانه‌ای برای حفظ حریم خصوصی دارد، پشتیبانی می‌کند.

چرا شرکت ها قبلاً این کار را انجام نمی دهند؟

این احتمال وجود دارد که بسیاری از شرکت‌ها از روش‌های حاکمیت محاسباتی صرفاً به این دلیل استفاده نمی‌کنند که از گزینه حفظ کنترل داده‌ها در حین ارسال الگوریتم‌ها به داده‌ها اطلاعی ندارند. در نتیجه، روش آنها برای رسیدگی به نگرانی‌های نظارتی این است که داده‌ها را در دسترس قرار نمی‌دهند، در نتیجه ترجیح می‌دهند در سیلوها باقی بمانند. اگر قرار است تغییری اتفاق بیفتد، یک تغییر ذهنیت لازم است.

روش‌های منطبق برای استفاده از داده‌های مشتریان، گاهی ارزش ذاتی داده‌های آن‌ها را کاهش می‌دهد و مانع از پتانسیل آن برای تقویت پیشرفت هوش مصنوعی می‌شود. در نتیجه، بسیاری از سازمان ها به خصوص در اروپا از الزامات انطباق کوتاهی می کنند.

متمرکز کردن داده‌ها یا توافق‌های جدید اشتراک‌گذاری داده‌ها شاید همکاری داده‌ها را تا حدی امکان‌پذیر کرده باشد، اما اینها اغلب طولانی و پرهزینه هستند و با توجه به سرعت تغییرات نظارتی و پیشرفت‌های فناوری، بعید به نظر می‌رسد که در آینده کاربردی باقی بمانند.

شرکت‌ها بر سر دوراهی مانده‌اند: آیا انطباق را در اولویت قرار می‌دهند یا نوآوری؟

برداشتن گام بعدی برای مقابله با بزرگترین مشکلات جامعه

در یک محیط نظارتی در حال تغییر، چابک بودن و در عین حال منطبق بودن تنها یک آرزو نیست، بلکه یک امر ضروری تجاری است. حاکمیت محاسباتی می تواند به عنوان یک کاتالیزور برای سازمان ها عمل کند تا به طور ایمن از دارایی های داده خود برای فعال کردن هوش مصنوعی نوآورانه، سازگار و قابل اعتماد استفاده کنند.

اگر شرکت‌ها بتوانند به‌طور ایمن داده‌های خود را برای ML و AI در دسترس قرار دهند، می‌توانند واقعاً خود را متمایز کنند و به آن‌ها اجازه می‌دهد رقابتی باقی بمانند و داده‌هایی را برای توسعه محصولاتی که می‌تواند برای جامعه مفید باشد فراهم کنند. با بهبود کیفیت داده‌های موجود برای توسعه‌دهندگان، از این مرحله حرکت می‌کنیم ChatGPT به دنیایی که در آن هوش مصنوعی واقعاً تفاوت ایجاد می کند.

پس از ماه‌ها تبلیغات پیرامون هوش مصنوعی، راه‌حلی مانند حاکمیت محاسباتی می‌تواند با در دسترس قرار دادن داده‌های نگهبانان داده‌ها به منظور کمک به پیشبرد راه‌حل‌های دنیای واقعی برای مشکلاتی که امروزه اتفاق می‌افتد – مانند تحقیقات پزشکی – پشتیبانی کند.

با تولید داده های مشتریان خود به شیوه ای سازگار، می توانید در خط مقدم نوآوری قرار بگیرید و مرزهای هوش مصنوعی را مسئولانه پشت سر بگذارید.

ما بهترین نرم افزار پایگاه داده را معرفی کرده ایم.

این مقاله به عنوان بخشی از کانال Expert Insights TechRadarPro تهیه شده است که در آن بهترین و باهوش ترین ذهن ها در صنعت فناوری امروز را معرفی می کنیم. نظرات بیان شده در اینجا نظرات نویسنده است و لزوماً نظرات TechRadarPro یا Future plc نیست. اگر علاقه مند به مشارکت هستید، در اینجا اطلاعات بیشتری کسب کنید: https://www.techradar.com/news/submit-your-story-to-techradar-pro


منبع: https://www.techradar.com/pro/computational-governance-the-key-to-building-safe-and-compliant-ai

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *