هوش مصنوعی مولد و چشم انداز قانونی: مقررات و پیامدهای در حال تحول

VentureBeat ارائه می دهد: AI Unleashed – یک رویداد اجرایی انحصاری برای رهبران داده های سازمانی. شبکه و یادگیری با همتایان صنعت. بیشتر بدانید


هوش مصنوعی و هوش مصنوعی مولد تغییر نحوه عملکرد نرم افزار، ایجاد فرصت هایی برای افزایش بهره وری، یافتن راه حل های جدید و تولید اطلاعات منحصر به فرد و مرتبط در مقیاس است. با این حال، با فراگیرتر شدن نسل هوش مصنوعی، نگرانی های جدید و فزاینده ای در مورد حریم خصوصی داده ها و معضلات اخلاقی وجود خواهد داشت.

هوش مصنوعی امروز می‌تواند توانایی‌های انسان را افزایش دهد، اما هنوز نباید جایگزین نظارت انسان شود، به‌ویژه که مقررات هوش مصنوعی هنوز در سطح جهانی در حال تغییر هستند. بیایید خطرات بالقوه انطباق و حفظ حریم خصوصی ناشی از استفاده کنترل نشده از AI ژنرال، نحوه تکامل چشم انداز قانونی و بهترین شیوه ها برای محدود کردن خطرات و به حداکثر رساندن فرصت ها برای این فناوری بسیار قدرتمند را بررسی کنیم.

خطرات هوش مصنوعی مولد کنترل نشده

جذابیت نسل هوش مصنوعی و مدل های زبان بزرگ (LLMs) از توانایی آنها در تجمیع اطلاعات و تولید ایده های جدید ناشی می شود، اما این قابلیت ها با خطرات ذاتی نیز همراه هستند. اگر به دقت مدیریت نشود، هوش مصنوعی ژنرال می تواند به طور ناخواسته منجر به مشکلاتی مانند:

  • افشای اطلاعات اختصاصی: شرکت‌ها در معرض خطر افشای داده‌های اختصاصی حساس زمانی که آن‌ها را در مدل‌های هوش مصنوعی عمومی قرار می‌دهند. این داده‌ها می‌توانند برای ارائه پاسخ برای یک پرس و جو در آینده توسط شخص ثالث یا توسط خود مالک مدل استفاده شوند. شرکت‌ها با بومی‌سازی مدل هوش مصنوعی در سیستم خود و آموزش آن مدل‌های هوش مصنوعی بر روی داده‌های شرکت خود، بخشی از این خطر را برطرف می‌کنند، اما این نیاز به یک پشته داده سازمان‌یافته برای بهترین نتایج دارد.
  • نقض حفاظت‌های IP: ممکن است شرکت‌ها ناخواسته متوجه شوند که IP را نقض می‌کنند حقوق مالکیت معنوی اشخاص ثالث از طریق استفاده نادرست از محتوای تولید شده توسط هوش مصنوعی، که منجر به مشکلات قانونی بالقوه می شود. برخی از شرکت‌ها، مانند Adobe با Adobe Firefly، برای محتوای تولید شده توسط LLM خود غرامت ارائه می‌کنند، اما اگر همچنان شاهد «استفاده مجدد» از مالکیت معنوی شخص ثالث توسط سیستم‌های هوش مصنوعی باشیم، مشکلات کپی رایت باید در آینده برطرف شود.
  • افشای داده‌های شخصی: نقض حریم خصوصی داده‌ها ممکن است رخ دهد اگر سیستم‌های هوش مصنوعی از اطلاعات شخصی، به‌ویژه داده‌های شخصی حساس یا دسته‌بندی خاص سوء استفاده کنند. از آنجایی که شرکت‌ها داده‌های بازاریابی و مشتریان بیشتری را به یک LLM وارد می‌کنند، این خطر احتمال نشت ناخواسته این داده‌ها را افزایش می‌دهد.
  • نقض قراردادهای مشتری: استفاده از داده های مشتری در هوش مصنوعی ممکن است قراردادهای قراردادی را نقض کند – و این می تواند منجر به عواقب قانونی شود.
  • خطر فریب مشتریان: مقررات فعلی و بالقوه آینده اغلب بر افشای مناسب فناوری هوش مصنوعی متمرکز هستند. به عنوان مثال، اگر مشتری در حال تعامل با یک ربات چت در یک وب سایت پشتیبانی است، شرکت باید روشن کند که چه زمانی یک هوش مصنوعی این تعامل را تقویت می کند و چه زمانی یک انسان واقعی در حال تهیه پیش نویس پاسخ ها است.

دستورالعمل‌های قانونی پیرامون هوش مصنوعی به سرعت در حال تکامل هستند، اما نه به آن سرعتی که فروشندگان هوش مصنوعی قابلیت‌های جدید را عرضه می‌کنند. اگر یک شرکت سعی کند تمام خطرات احتمالی را به حداقل برساند و منتظر بماند تا گرد و غبار روی هوش مصنوعی بنشیند، می تواند سهم بازار و اعتماد مشتری را از دست بدهد زیرا رقبای سریعتر توجه بیشتری را به خود جلب می کنند. شرکت‌ها باید در اسرع وقت به جلو حرکت کنند – اما آنها باید از استراتژی‌های کاهش ریسک آزمایش‌شده بر اساس مقررات فعلی و سوابق قانونی استفاده کنند تا مشکلات احتمالی را به حداقل برسانند.

رویداد

هوش مصنوعی آزاد شد

یک شب انحصاری فقط دعوت از بینش و شبکه، که برای مدیران ارشد سازمانی که بر پشته‌های داده و استراتژی‌ها نظارت دارند، طراحی شده است.

بیشتر بدانید

تاکنون غول‌های هوش مصنوعی را هدف اصلی چندین پرونده قضایی دیده‌ایم که حول استفاده آن‌ها از داده‌های دارای حق چاپ برای ایجاد و آموزش مدل‌هایشان می‌چرخند. دعوای دسته جمعی اخیر که در ناحیه شمالی کالیفرنیا ثبت شده است، از جمله پرونده ای که در تاریخ ثبت شده است از طرف نویسندگان و دیگری از طرف شهروندان آسیب دیده اتهامات مربوط به نقض حق چاپ، حمایت از مصرف کننده و نقض قوانین حفاظت از داده ها را مطرح کنید. این پرونده‌ها اهمیت رسیدگی مسئولانه داده‌ها را برجسته می‌کنند و ممکن است به نیاز به آن اشاره کنند افشای منابع داده های آموزشی در آینده.

با این حال، سازندگان هوش مصنوعی مانند OpenAI تنها شرکت‌هایی نیستند که با ریسک ارائه شده از طریق پیاده‌سازی مدل‌های هوش مصنوعی ژنتیکی مقابله می‌کنند. هنگامی که برنامه ها به شدت به یک مدل متکی هستند، این خطر وجود دارد که مدلی که به طور غیرقانونی آموزش دیده است، کل محصول را آلوده کند.

به عنوان مثال، زمانی که FTC مالک اپلیکیشن Every را به اتهاماتی متهم کرد فریب مصرف کنندگان شرکت مادر Everalbum درباره استفاده از فناوری تشخیص چهره و حفظ عکس‌ها و ویدیوهای کاربرانی که حساب‌های خود را غیرفعال کرده‌اند، ملزم شد داده‌های جمع‌آوری‌شده نادرست و هر مدل/الگوریتم هوش مصنوعی را که با استفاده از این داده‌ها ایجاد کرده بود، حذف کند. این اساساً کل تجارت شرکت را پاک کرد و منجر به تعطیلی آن در سال ۲۰۲۰ شد.

در همان زمان، ایالت هایی مانند نیویورک قوانین و پیشنهادهایی را ارائه کرده اند یا در حال ارائه هستند که استفاده از هوش مصنوعی را در زمینه هایی مانند تنظیم می کند. استخدام و چت بات افشای این من قانون دارم که در حال حاضر در مذاکرات Trilogue است و انتظار می‌رود تا پایان سال به تصویب برسد، از شرکت‌ها می‌خواهد محتوای تولید شده توسط هوش مصنوعی را به طور شفاف افشا کنند، اطمینان حاصل کنند که محتوا غیرقانونی نبوده، خلاصه‌ای از داده‌های دارای حق نسخه‌برداری مورد استفاده برای آموزش را منتشر کنند، و شامل موارد اضافی شود. الزامات برای موارد استفاده پرخطر

بهترین روش ها برای محافظت از داده ها در عصر هوش مصنوعی

واضح است که مدیران عامل برای استفاده از ابزارهای هوش مصنوعی ژنرال برای افزایش بهره وری در سراسر سازمان خود تحت فشار هستند. با این حال، بسیاری از شرکت ها فاقد حس آمادگی سازمانی برای اجرای آنها هستند. عدم اطمینان در حالی که مقررات چکش می شود، و اولین پرونده ها برای دادخواهی آماده می شود.

اما شرکت ها می توانند از قوانین و چارچوب های موجود به عنوان راهنما برای ایجاد بهترین شیوه ها و آماده شدن برای مقررات آتی استفاده کنند. قوانین موجود حفاظت از داده ها دارای مقرراتی است که می تواند برای سیستم های هوش مصنوعی اعمال شود، از جمله الزامات برای شفافیت، اطلاع رسانی و پایبندی به حقوق حریم خصوصی شخصی. با این حال، بسیاری از مقررات مربوط به توانایی انصراف از تصمیم گیری خودکار، حق فراموشی یا حذف اطلاعات نادرست بوده است.

این ممکن است با توجه به وضعیت فعلی LLM ها چالش برانگیز باشد. اما در حال حاضر، بهترین شیوه ها برای شرکت هایی که با اجرای مسئولانه هوش مصنوعی ژنرال دست و پنجه نرم می کنند عبارتند از:

  • شفافیت و مستندسازی: استفاده از هوش مصنوعی در پردازش داده‌ها، مستندسازی منطق هوش مصنوعی، استفاده‌های مورد نظر و تأثیرات بالقوه بر موضوع داده‌ها را به وضوح بیان کنید.
  • بومی‌سازی مدل‌های هوش مصنوعی: بومی‌سازی مدل‌های هوش مصنوعی در داخل و آموزش مدل با داده‌های اختصاصی در مقایسه با استفاده از ابزارهایی مانند ربات‌های گفتگوی شخص ثالث، می‌تواند خطر نشت اطلاعات را تا حد زیادی کاهش دهد. این رویکرد همچنین می تواند دستاوردهای بهره وری معنی داری را به همراه داشته باشد زیرا این مدل بر روی اطلاعات بسیار مرتبط خاص سازمان آموزش داده شده است.
  • شروع کوچک و آزمایش: از مدل‌های هوش مصنوعی داخلی برای آزمایش قبل از انتقال به داده‌های تجاری زنده از یک محیط ابری امن یا درون محل استفاده کنید.
  • تمرکز بر کشف و اتصال: از هوش مصنوعی ژنرال برای کشف بینش های جدید و ایجاد ارتباطات غیرمنتظره در بخش ها یا سیلوهای اطلاعاتی استفاده کنید.
  • حفظ عنصر انسانی: ژنرال هوش مصنوعی باید عملکرد انسان را تقویت کند، نه اینکه آن را به طور کامل حذف کند. نظارت انسانی، بررسی تصمیمات حیاتی و تأیید محتوای ایجاد شده توسط هوش مصنوعی به کاهش خطر ناشی از تعصبات مدل یا عدم دقت داده ها کمک می کند.
  • حفظ شفافیت و گزارش‌ها: ثبت تراکنش‌های جابه‌جایی داده‌ها و ذخیره گزارش‌های دقیق داده‌های شخصی پردازش‌شده می‌تواند به تعیین چگونگی و چرایی استفاده از داده‌ها در صورت نیاز یک شرکت به نشان دادن حاکمیت و امنیت داده‌ها کمک کند.

بین Claude Anthropic، ChatGPT OpenAI، BARD Google و Meta’s Llama، ما شاهد راه‌های جدید شگفت‌انگیزی خواهیم بود که می‌توانیم از داده‌هایی که کسب‌وکارها سال‌هاست جمع‌آوری و ذخیره کرده‌اند، سرمایه‌گذاری کنیم و ایده‌ها و ارتباطات جدیدی را کشف کنیم که می‌تواند راه را تغییر دهد. شرکت فعالیت می کند. تغییر همیشه با خطر همراه است و وکلا مسئول کاهش ریسک هستند.

اما پتانسیل تحول آفرین هوش مصنوعی آنقدر نزدیک است که حتی محتاط ترین متخصصان حفظ حریم خصوصی نیز باید برای این موج آماده شوند. تیم‌های حفظ حریم خصوصی و انطباق با شروع مدیریت قوی داده‌ها، اعلان‌های واضح و مستندات دقیق، می‌توانند به بهترین وجه به مقررات جدید واکنش نشان دهند و فرصت تجاری فوق‌العاده هوش مصنوعی را به حداکثر برسانند.

نیک لئون مشاور مدیریت محصول و انطباق است Fivetranرهبر در انتقال خودکار داده ها

ست باتی افسر حفاظت از داده ها، مشاور ارشد مدیریت حریم خصوصی در Fivetran است.

DataDecisionMakers

به انجمن VentureBeat خوش آمدید!

DataDecisionMakers جایی است که کارشناسان، از جمله افراد فنی که کار داده را انجام می دهند، می توانند بینش ها و نوآوری های مرتبط با داده را به اشتراک بگذارند.

اگر می‌خواهید درباره ایده‌های پیشرفته و اطلاعات به‌روز، بهترین شیوه‌ها و آینده فناوری داده و داده مطالعه کنید، به ما در DataDecisionMakers بپیوندید.

حتی ممکن است در نظر بگیرید مشارکت در مقاله از خودت!

از DataDecisionMakers بیشتر بخوانید


منبع: https://venturebeat.com/ai/generative-ai-and-the-legal-landscape-evolving-regulations-and-implications/

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *