VentureBeat ارائه می دهد: AI Unleashed – یک رویداد اجرایی انحصاری برای رهبران داده های سازمانی. شبکه و یادگیری با همتایان صنعت. بیشتر بدانید
هوش مصنوعی و هوش مصنوعی مولد تغییر نحوه عملکرد نرم افزار، ایجاد فرصت هایی برای افزایش بهره وری، یافتن راه حل های جدید و تولید اطلاعات منحصر به فرد و مرتبط در مقیاس است. با این حال، با فراگیرتر شدن نسل هوش مصنوعی، نگرانی های جدید و فزاینده ای در مورد حریم خصوصی داده ها و معضلات اخلاقی وجود خواهد داشت.
هوش مصنوعی امروز میتواند تواناییهای انسان را افزایش دهد، اما هنوز نباید جایگزین نظارت انسان شود، بهویژه که مقررات هوش مصنوعی هنوز در سطح جهانی در حال تغییر هستند. بیایید خطرات بالقوه انطباق و حفظ حریم خصوصی ناشی از استفاده کنترل نشده از AI ژنرال، نحوه تکامل چشم انداز قانونی و بهترین شیوه ها برای محدود کردن خطرات و به حداکثر رساندن فرصت ها برای این فناوری بسیار قدرتمند را بررسی کنیم.
خطرات هوش مصنوعی مولد کنترل نشده
جذابیت نسل هوش مصنوعی و مدل های زبان بزرگ (LLMs) از توانایی آنها در تجمیع اطلاعات و تولید ایده های جدید ناشی می شود، اما این قابلیت ها با خطرات ذاتی نیز همراه هستند. اگر به دقت مدیریت نشود، هوش مصنوعی ژنرال می تواند به طور ناخواسته منجر به مشکلاتی مانند:
- افشای اطلاعات اختصاصی: شرکتها در معرض خطر افشای دادههای اختصاصی حساس زمانی که آنها را در مدلهای هوش مصنوعی عمومی قرار میدهند. این دادهها میتوانند برای ارائه پاسخ برای یک پرس و جو در آینده توسط شخص ثالث یا توسط خود مالک مدل استفاده شوند. شرکتها با بومیسازی مدل هوش مصنوعی در سیستم خود و آموزش آن مدلهای هوش مصنوعی بر روی دادههای شرکت خود، بخشی از این خطر را برطرف میکنند، اما این نیاز به یک پشته داده سازمانیافته برای بهترین نتایج دارد.
- نقض حفاظتهای IP: ممکن است شرکتها ناخواسته متوجه شوند که IP را نقض میکنند حقوق مالکیت معنوی اشخاص ثالث از طریق استفاده نادرست از محتوای تولید شده توسط هوش مصنوعی، که منجر به مشکلات قانونی بالقوه می شود. برخی از شرکتها، مانند Adobe با Adobe Firefly، برای محتوای تولید شده توسط LLM خود غرامت ارائه میکنند، اما اگر همچنان شاهد «استفاده مجدد» از مالکیت معنوی شخص ثالث توسط سیستمهای هوش مصنوعی باشیم، مشکلات کپی رایت باید در آینده برطرف شود.
- افشای دادههای شخصی: نقض حریم خصوصی دادهها ممکن است رخ دهد اگر سیستمهای هوش مصنوعی از اطلاعات شخصی، بهویژه دادههای شخصی حساس یا دستهبندی خاص سوء استفاده کنند. از آنجایی که شرکتها دادههای بازاریابی و مشتریان بیشتری را به یک LLM وارد میکنند، این خطر احتمال نشت ناخواسته این دادهها را افزایش میدهد.
- نقض قراردادهای مشتری: استفاده از داده های مشتری در هوش مصنوعی ممکن است قراردادهای قراردادی را نقض کند – و این می تواند منجر به عواقب قانونی شود.
- خطر فریب مشتریان: مقررات فعلی و بالقوه آینده اغلب بر افشای مناسب فناوری هوش مصنوعی متمرکز هستند. به عنوان مثال، اگر مشتری در حال تعامل با یک ربات چت در یک وب سایت پشتیبانی است، شرکت باید روشن کند که چه زمانی یک هوش مصنوعی این تعامل را تقویت می کند و چه زمانی یک انسان واقعی در حال تهیه پیش نویس پاسخ ها است.
چشم انداز قانونی و چارچوب های موجود
دستورالعملهای قانونی پیرامون هوش مصنوعی به سرعت در حال تکامل هستند، اما نه به آن سرعتی که فروشندگان هوش مصنوعی قابلیتهای جدید را عرضه میکنند. اگر یک شرکت سعی کند تمام خطرات احتمالی را به حداقل برساند و منتظر بماند تا گرد و غبار روی هوش مصنوعی بنشیند، می تواند سهم بازار و اعتماد مشتری را از دست بدهد زیرا رقبای سریعتر توجه بیشتری را به خود جلب می کنند. شرکتها باید در اسرع وقت به جلو حرکت کنند – اما آنها باید از استراتژیهای کاهش ریسک آزمایششده بر اساس مقررات فعلی و سوابق قانونی استفاده کنند تا مشکلات احتمالی را به حداقل برسانند.
تاکنون غولهای هوش مصنوعی را هدف اصلی چندین پرونده قضایی دیدهایم که حول استفاده آنها از دادههای دارای حق چاپ برای ایجاد و آموزش مدلهایشان میچرخند. دعوای دسته جمعی اخیر که در ناحیه شمالی کالیفرنیا ثبت شده است، از جمله پرونده ای که در تاریخ ثبت شده است از طرف نویسندگان و دیگری از طرف شهروندان آسیب دیده اتهامات مربوط به نقض حق چاپ، حمایت از مصرف کننده و نقض قوانین حفاظت از داده ها را مطرح کنید. این پروندهها اهمیت رسیدگی مسئولانه دادهها را برجسته میکنند و ممکن است به نیاز به آن اشاره کنند افشای منابع داده های آموزشی در آینده.
با این حال، سازندگان هوش مصنوعی مانند OpenAI تنها شرکتهایی نیستند که با ریسک ارائه شده از طریق پیادهسازی مدلهای هوش مصنوعی ژنتیکی مقابله میکنند. هنگامی که برنامه ها به شدت به یک مدل متکی هستند، این خطر وجود دارد که مدلی که به طور غیرقانونی آموزش دیده است، کل محصول را آلوده کند.
به عنوان مثال، زمانی که FTC مالک اپلیکیشن Every را به اتهاماتی متهم کرد فریب مصرف کنندگان شرکت مادر Everalbum درباره استفاده از فناوری تشخیص چهره و حفظ عکسها و ویدیوهای کاربرانی که حسابهای خود را غیرفعال کردهاند، ملزم شد دادههای جمعآوریشده نادرست و هر مدل/الگوریتم هوش مصنوعی را که با استفاده از این دادهها ایجاد کرده بود، حذف کند. این اساساً کل تجارت شرکت را پاک کرد و منجر به تعطیلی آن در سال ۲۰۲۰ شد.
در همان زمان، ایالت هایی مانند نیویورک قوانین و پیشنهادهایی را ارائه کرده اند یا در حال ارائه هستند که استفاده از هوش مصنوعی را در زمینه هایی مانند تنظیم می کند. استخدام و چت بات افشای این من قانون دارم که در حال حاضر در مذاکرات Trilogue است و انتظار میرود تا پایان سال به تصویب برسد، از شرکتها میخواهد محتوای تولید شده توسط هوش مصنوعی را به طور شفاف افشا کنند، اطمینان حاصل کنند که محتوا غیرقانونی نبوده، خلاصهای از دادههای دارای حق نسخهبرداری مورد استفاده برای آموزش را منتشر کنند، و شامل موارد اضافی شود. الزامات برای موارد استفاده پرخطر
بهترین روش ها برای محافظت از داده ها در عصر هوش مصنوعی
واضح است که مدیران عامل برای استفاده از ابزارهای هوش مصنوعی ژنرال برای افزایش بهره وری در سراسر سازمان خود تحت فشار هستند. با این حال، بسیاری از شرکت ها فاقد حس آمادگی سازمانی برای اجرای آنها هستند. عدم اطمینان در حالی که مقررات چکش می شود، و اولین پرونده ها برای دادخواهی آماده می شود.
اما شرکت ها می توانند از قوانین و چارچوب های موجود به عنوان راهنما برای ایجاد بهترین شیوه ها و آماده شدن برای مقررات آتی استفاده کنند. قوانین موجود حفاظت از داده ها دارای مقرراتی است که می تواند برای سیستم های هوش مصنوعی اعمال شود، از جمله الزامات برای شفافیت، اطلاع رسانی و پایبندی به حقوق حریم خصوصی شخصی. با این حال، بسیاری از مقررات مربوط به توانایی انصراف از تصمیم گیری خودکار، حق فراموشی یا حذف اطلاعات نادرست بوده است.
این ممکن است با توجه به وضعیت فعلی LLM ها چالش برانگیز باشد. اما در حال حاضر، بهترین شیوه ها برای شرکت هایی که با اجرای مسئولانه هوش مصنوعی ژنرال دست و پنجه نرم می کنند عبارتند از:
- شفافیت و مستندسازی: استفاده از هوش مصنوعی در پردازش دادهها، مستندسازی منطق هوش مصنوعی، استفادههای مورد نظر و تأثیرات بالقوه بر موضوع دادهها را به وضوح بیان کنید.
- بومیسازی مدلهای هوش مصنوعی: بومیسازی مدلهای هوش مصنوعی در داخل و آموزش مدل با دادههای اختصاصی در مقایسه با استفاده از ابزارهایی مانند رباتهای گفتگوی شخص ثالث، میتواند خطر نشت اطلاعات را تا حد زیادی کاهش دهد. این رویکرد همچنین می تواند دستاوردهای بهره وری معنی داری را به همراه داشته باشد زیرا این مدل بر روی اطلاعات بسیار مرتبط خاص سازمان آموزش داده شده است.
- شروع کوچک و آزمایش: از مدلهای هوش مصنوعی داخلی برای آزمایش قبل از انتقال به دادههای تجاری زنده از یک محیط ابری امن یا درون محل استفاده کنید.
- تمرکز بر کشف و اتصال: از هوش مصنوعی ژنرال برای کشف بینش های جدید و ایجاد ارتباطات غیرمنتظره در بخش ها یا سیلوهای اطلاعاتی استفاده کنید.
- حفظ عنصر انسانی: ژنرال هوش مصنوعی باید عملکرد انسان را تقویت کند، نه اینکه آن را به طور کامل حذف کند. نظارت انسانی، بررسی تصمیمات حیاتی و تأیید محتوای ایجاد شده توسط هوش مصنوعی به کاهش خطر ناشی از تعصبات مدل یا عدم دقت داده ها کمک می کند.
- حفظ شفافیت و گزارشها: ثبت تراکنشهای جابهجایی دادهها و ذخیره گزارشهای دقیق دادههای شخصی پردازششده میتواند به تعیین چگونگی و چرایی استفاده از دادهها در صورت نیاز یک شرکت به نشان دادن حاکمیت و امنیت دادهها کمک کند.
بین Claude Anthropic، ChatGPT OpenAI، BARD Google و Meta’s Llama، ما شاهد راههای جدید شگفتانگیزی خواهیم بود که میتوانیم از دادههایی که کسبوکارها سالهاست جمعآوری و ذخیره کردهاند، سرمایهگذاری کنیم و ایدهها و ارتباطات جدیدی را کشف کنیم که میتواند راه را تغییر دهد. شرکت فعالیت می کند. تغییر همیشه با خطر همراه است و وکلا مسئول کاهش ریسک هستند.
اما پتانسیل تحول آفرین هوش مصنوعی آنقدر نزدیک است که حتی محتاط ترین متخصصان حفظ حریم خصوصی نیز باید برای این موج آماده شوند. تیمهای حفظ حریم خصوصی و انطباق با شروع مدیریت قوی دادهها، اعلانهای واضح و مستندات دقیق، میتوانند به بهترین وجه به مقررات جدید واکنش نشان دهند و فرصت تجاری فوقالعاده هوش مصنوعی را به حداکثر برسانند.
نیک لئون مشاور مدیریت محصول و انطباق است Fivetranرهبر در انتقال خودکار داده ها
ست باتی افسر حفاظت از داده ها، مشاور ارشد مدیریت حریم خصوصی در Fivetran است.
DataDecisionMakers
به انجمن VentureBeat خوش آمدید!
DataDecisionMakers جایی است که کارشناسان، از جمله افراد فنی که کار داده را انجام می دهند، می توانند بینش ها و نوآوری های مرتبط با داده را به اشتراک بگذارند.
اگر میخواهید درباره ایدههای پیشرفته و اطلاعات بهروز، بهترین شیوهها و آینده فناوری داده و داده مطالعه کنید، به ما در DataDecisionMakers بپیوندید.
حتی ممکن است در نظر بگیرید مشارکت در مقاله از خودت!
منبع: https://venturebeat.com/ai/generative-ai-and-the-legal-landscape-evolving-regulations-and-implications/