خطرات برای شرکت های در حال توسعه به طور فزاینده ای افزایش می یابد هوش مصنوعی در صنایع بسیار تحت نظارت در بخش هایی مانند بهداشت و درمان و دارایی، مالیه، سرمایه گذاریانطباق فقط یک تعهد قانونی نیست، بلکه جنبه ای حیاتی برای ایجاد اعتماد و یکپارچگی بین سازمان ها و سازمان ها است. مشتریان.
از آنجایی که مدلهای یادگیری ماشین نیاز به تنوع بیشتری دارند داده ها – اغلب از منابع متعدد در سازمان های مختلف – نیاز به یک راه حل سازگار افزایش می یابد. در حالی که توسعهدهندگان برای ایجاد پیچیدهترین مدلهای یادگیری ماشین عجله دارند، نگهبانان داده به دنبال وسیلهای هستند تا دادههای خود را در اختیار این توسعهدهندگان قرار دهند – و بنابراین به ارزش آن پی میبرند.
یکی از راه حل های در حال ظهور، حاکمیت محاسباتی است که توانایی کنترل، نظارت و ردیابی تمام جنبه های محاسبات روی داده ها را توصیف می کند. برای شرکتهایی که روی ترابایت دادههای با ارزش نشستهاند، حاکمیت محاسباتی راهی برای در دسترس قرار دادن دادهها برای ML است، با انجام این کار در عین حصول اطمینان از حاکمیت، امنیت و حریم خصوصی. اگرچه نوپا است، اما می تواند جزئی در باز کردن پتانسیل واقعی داده ها برای صاحبان داده باشد.
تعریف کنترل های خود
حاکمیت محاسباتی به متولیان داده ها – سازمان هایی که داده ها را در اختیار دارند – اجازه می دهد تا سطح مورد نیاز حریم خصوصی را تنظیم کنند و کنترل های دسترسی را در سطح محاسباتی تعریف کنند. این دیکته می کند که چه کسی می تواند محاسبات را بر روی کدام یک از دارایی های داده خود و برای چه هدفی انجام دهد. در اصل، فقط محاسبات مجاز که با الزامات نگهبان مطابقت دارند می توانند روی داده ها اجرا شوند و از رعایت قوانین حریم خصوصی و هوش مصنوعی اطمینان حاصل کنند.
نتیجه این است که شرکتها میتوانند نظارت کنند و ردیابی کنند که چه کسی با دادههایشان چه کاری انجام میدهد، در حالی که همچنین توانایی کاربران دادهها را برای بهروزرسانی مدلهای خود تا زمانی که با خطمشیهای دارایی مطابقت دارند، حفظ میکنند.
این به چند دلیل ضروری است. اولاً، به سازمانها کمک میکند تا از مقرراتی مانند GDPR و HIPAA پیروی کنند، که سازمانها را ملزم میکند از حریم خصوصی و امنیت دادههای شخصی محافظت کنند. حاکمیت محاسباتی به سازمانها کمک میکند تا با اطمینان از اینکه فقط افراد مجاز به دادهها دسترسی محاسباتی دارند، دادهها فقط برای مقاصد تایید شده استفاده میشوند و دادههای خام هرگز مستقیماً به اشتراک گذاشته نمیشوند، به سازمانها کمک میکند تا این الزامات را برآورده کنند.
علاوه بر این، حاکمیت محاسباتی نقشی حیاتی در توسعه مدلهای هوش مصنوعی اخلاقی و مسئولانه ایفا میکند. به عنوان مثال، در مراقبتهای بهداشتی، به این معنی است که مدلهای هوش مصنوعی میتوانند صرفاً بر اساس دادهها برای اهدافی که مطابقت دارند آموزش داده شوند و در عین حال از حفظ حریم خصوصی اطمینان حاصل شود.
در دسترس قرار دادن داده ها
دادهها خط خونی سازمانهای مدرن هستند، اما به اندازه بینشهایی ارزشمند هستند که میتوان از آن استخراج کرد.
هر بار که داده ها جابجا می شوند، در معرض تهدیداتی مانند سرقت داده ها و تداخل داده ها قرار می گیرند. اگر با اشتراک گذاری با سازمان دیگری به خارج از محیط خود منتقل شود، مالک کنترل نحوه استفاده از داده های خود را از دست می دهد. در نتیجه، داده ها مقدار زیادی از ارزش خود را برای مالک از دست می دهند.
یادگیری فدرال روشی برای آموزش مدلهای هوش مصنوعی بدون انتقال دادهها از مکان امن آن است – که به نگهبانان داده اجازه میدهد تا دادههای خود را در یک محیط امن در اختیار توسعهدهندگان قرار دهند.
حفاظت از داده های اختصاصی به عنوان یک دارایی با ارزش برای سازمان ها در هر اندازه ای بسیار مهم است. این امر نگهبانان داده را قادر می سازد تا ارزش بیشتری کسب کنند (از تجاری سازی یا تولید آن). با انتقال ندادن دادهها، نگهبان در کنترل کامل باقی میماند، مطمئن میشود که شما الزامات اقامت و حاکمیت دادهها را برآورده میکنید و ارزش تجاری را حفظ میکنید.
توانایی رها کردن دادهها در محلی که در آن ساکن است نیز از انطباق با مقرراتی مانند GDPR که حاوی قوانین مربوط به اقامت دادهها است و قانون هوش مصنوعی اتحادیه اروپا که الزامات سختگیرانهای برای حفظ حریم خصوصی دارد، پشتیبانی میکند.
چرا شرکت ها قبلاً این کار را انجام نمی دهند؟
این احتمال وجود دارد که بسیاری از شرکتها از روشهای حاکمیت محاسباتی صرفاً به این دلیل استفاده نمیکنند که از گزینه حفظ کنترل دادهها در حین ارسال الگوریتمها به دادهها اطلاعی ندارند. در نتیجه، روش آنها برای رسیدگی به نگرانیهای نظارتی این است که دادهها را در دسترس قرار نمیدهند، در نتیجه ترجیح میدهند در سیلوها باقی بمانند. اگر قرار است تغییری اتفاق بیفتد، یک تغییر ذهنیت لازم است.
روشهای منطبق برای استفاده از دادههای مشتریان، گاهی ارزش ذاتی دادههای آنها را کاهش میدهد و مانع از پتانسیل آن برای تقویت پیشرفت هوش مصنوعی میشود. در نتیجه، بسیاری از سازمان ها به خصوص در اروپا از الزامات انطباق کوتاهی می کنند.
متمرکز کردن دادهها یا توافقهای جدید اشتراکگذاری دادهها شاید همکاری دادهها را تا حدی امکانپذیر کرده باشد، اما اینها اغلب طولانی و پرهزینه هستند و با توجه به سرعت تغییرات نظارتی و پیشرفتهای فناوری، بعید به نظر میرسد که در آینده کاربردی باقی بمانند.
شرکتها بر سر دوراهی ماندهاند: آیا انطباق را در اولویت قرار میدهند یا نوآوری؟
برداشتن گام بعدی برای مقابله با بزرگترین مشکلات جامعه
در یک محیط نظارتی در حال تغییر، چابک بودن و در عین حال منطبق بودن تنها یک آرزو نیست، بلکه یک امر ضروری تجاری است. حاکمیت محاسباتی می تواند به عنوان یک کاتالیزور برای سازمان ها عمل کند تا به طور ایمن از دارایی های داده خود برای فعال کردن هوش مصنوعی نوآورانه، سازگار و قابل اعتماد استفاده کنند.
اگر شرکتها بتوانند بهطور ایمن دادههای خود را برای ML و AI در دسترس قرار دهند، میتوانند واقعاً خود را متمایز کنند و به آنها اجازه میدهد رقابتی باقی بمانند و دادههایی را برای توسعه محصولاتی که میتواند برای جامعه مفید باشد فراهم کنند. با بهبود کیفیت دادههای موجود برای توسعهدهندگان، از این مرحله حرکت میکنیم ChatGPT به دنیایی که در آن هوش مصنوعی واقعاً تفاوت ایجاد می کند.
پس از ماهها تبلیغات پیرامون هوش مصنوعی، راهحلی مانند حاکمیت محاسباتی میتواند با در دسترس قرار دادن دادههای نگهبانان دادهها به منظور کمک به پیشبرد راهحلهای دنیای واقعی برای مشکلاتی که امروزه اتفاق میافتد – مانند تحقیقات پزشکی – پشتیبانی کند.
با تولید داده های مشتریان خود به شیوه ای سازگار، می توانید در خط مقدم نوآوری قرار بگیرید و مرزهای هوش مصنوعی را مسئولانه پشت سر بگذارید.
ما بهترین نرم افزار پایگاه داده را معرفی کرده ایم.
این مقاله به عنوان بخشی از کانال Expert Insights TechRadarPro تهیه شده است که در آن بهترین و باهوش ترین ذهن ها در صنعت فناوری امروز را معرفی می کنیم. نظرات بیان شده در اینجا نظرات نویسنده است و لزوماً نظرات TechRadarPro یا Future plc نیست. اگر علاقه مند به مشارکت هستید، در اینجا اطلاعات بیشتری کسب کنید: https://www.techradar.com/news/submit-your-story-to-techradar-pro
منبع: https://www.techradar.com/pro/computational-governance-the-key-to-building-safe-and-compliant-ai