هوش مصنوعی مولد: سوالاتی برای مقامات رقابت و حمایت از مصرف کننده

مولد هوش مصنوعی: ۳ سوال حیاتی برای مقامات رقابت و حمایت از مصرف کننده به سختی یک سال از راه اندازی آن می گذرد ChatGPT توسط OpenAI، هوش مصنوعی مولد و مدل‌های بنیادی را در خط مقدم آگاهی عمومی قرار داد. توسعه و استفاده از GenAI تصاعدی به نظر می‌رسد، و دولت‌ها برای تنظیم خطرات بالقوه آن بدون محدود کردن پتانسیل تحول‌آفرین یا دلسرد کردن سرمایه‌گذاری‌های مرتبط با هوش مصنوعی در حوزه‌های قضایی خود رقابت می‌کنند.

در این زمینه، شرکت کنندگان در اجلاس ایمنی هوش مصنوعی بریتانیا در ۱ و ۲ نوامبر ۲۰۲۳ بحث های زیادی برای بحث دارند. این اجلاس دولت‌ها، دانشگاهیان، جامعه مدنی و نمایندگان شرکت‌ها را گرد هم می‌آورد تا نحوه مدیریت سوءاستفاده و خطرات از دست دادن کنترل ناشی از پیشرفت‌های اخیر در هوش مصنوعی را با هدف ارتقای بین‌المللی بررسی کنند. همکاری و بهترین شیوه ها

در این اجلاس درباره رقابت و حمایت از مصرف کننده در GenAI، جایی که همکاری بین المللی محدود به نظر می رسد، بحث نخواهد شد. با توسعه استفاده و قابلیت های GenAI، سه سوال برای تقویت رقابت، نوآوری و انتخاب آگاهانه مصرف کننده حیاتی است.

سوال ۱: چگونه تنظیم کننده ها می توانند رهبری GenAI را به جای تسلط GenAI ارتقا دهند؟

مدل‌های پیشرو و ابزارهای مرتبط توسط تعداد کمی از بازیکنان بزرگ ارائه می‌شوند. بازیگران کوچک‌تر نیز محصولات نوآورانه‌ای را به بازار می‌آورند، اما بسیاری از آن‌ها محصولات خود را بر اساس مدل‌های توسعه‌یافته توسط بازیگران بزرگ‌تر پایه‌گذاری می‌کنند.

ضمن شناسایی و پاداش دادن به سرمایه گذاری های قابل توجه توسط بازیگران اصلی، برای تنظیم کننده ها مهم است که محیطی را ایجاد کنند که در آن دسترسی به مدل ها با شرایط منصفانه، معقول و بدون تبعیض فراهم شود. بزرگترین بازیگران پیشنهادات پایین دستی خود و همچنین سرمایه گذاری های استراتژیک و مشارکت با سایر توسعه دهندگان هوش مصنوعی دارند. این ترتیبات می‌تواند کارایی، قابلیت‌های جدید و افزایش انتخاب مصرف‌کننده را به همراه داشته باشد، اما همچنین فرصت‌هایی را برای حذف رقبای پایین‌دستی یا قفل کردن عرضه خدمات به اپراتورهای پایین‌دستی با شرایطی که به نفع بازیگر بزرگ‌تر است، فراهم می‌کند.

همچنین باید رقابت بین اپراتورهای مدل تشویق شود تا از توسعه مدل‌های با کیفیت بالا و استراتژی‌های مختلف کسب درآمد، از جمله حمایت شود. متن باز و حالت های منبع بسته رقابت محدود بین اپراتورهای مدل نیز ممکن است تمایز محصولات پایین‌دستی را کاهش دهد: اگر همان درخواست توسط چندین ارائه‌دهنده پایین‌دستی به یک مدل اصلی ارائه شود، آن مدل نتیجه یکسان یا مشابه را نشان می‌دهد.

سوال ۲: آیا بازیکنان نسبت به سرعت GenAI به ایمنی GenAI متعهد خواهند بود؟

GenAI سرمایه گذاری و توجه عمومی قابل توجهی را به خود جلب می کند. در نتیجه، برخی اپراتورها می‌توانند عملکرد، هوشمندی و سرعت را به ضرر ایمنی مصرف‌کننده به حداکثر برسانند: پیشرفت‌ها ممکن است آنقدر سودآور، ارزشمند و محبوب باشند که اپراتورها در عجله برای ارائه محصولات جدید جلوتر از رقابت، مکانیسم‌های ایمنی کافی را ایجاد نکنند. .

این خطرات تشدید می‌شوند زیرا بسیاری از مصرف‌کنندگان در حال حاضر محدودیت‌های مدل‌های پایه، از جمله پتانسیل ابزارهای محبوب برای تولید خروجی‌های نادرست، مغرضانه، توهین‌آمیز و متخلف را درک نمی‌کنند. شفافیت و آموزش در مورد چنین محدودیت‌هایی حیاتی است، در حالی که فناوری برای مقابله با این مسائل بهبود می‌یابد، از جمله برای فعال کردن مشاغلی که هوش مصنوعی را در محصولات خود وارد می‌کنند تا تعهدات قانونی مصرف‌کننده خود را برآورده کنند.

نهادهای صنعتی، مانند انجمن مدل مرزی، بدون شک توسعه و انتشار بهترین شیوه ها را تسهیل خواهند کرد. برای ایجاد رقابت در رابطه با تجربه مصرف کننده، رسیدگی به شکایات و جبران خسارت، اطمینان از شفافیت پاسخگویی در سراسر زنجیره ارزش بسیار مهم است.

سوال ۳: آیا اپراتورهای مدل فونداسیون می توانند بدون ایجاد مانعی برای سوئیچینگ به خواسته های تنظیم دقیق پاسخ دهند؟

تنظیم دقیق مدل های پایه را قادر می سازد تا برای مواجهه با مشتری خاص اصلاح شوند برنامه های کاربردی. در حالی که سودمندی مدل‌های سفارشی برای یک تجارت آشکار است، اتکای گسترده به چنین مدل‌هایی در شکل فعلی‌شان ممکن است بر رشد بازار تأثیر منفی بگذارد.

آ مشتری بعید است که یک اپراتور مدل حقوق مالکیت را در نسخه تنظیم شده آن مدل به دست آورد: تنظیم دقیق فقط یک نسخه اصلاح شده از مدل پایه ایجاد می کند، بنابراین هرگونه اعطای حقوق در یک مدل تنظیم شده به احتمال زیاد پایه اپراتور را تضعیف می کند. مدل مالکیت در نتیجه، حتی اگر یک مشتری مالکیت داده های تنظیم دقیق خود را حفظ کند و/یا پارامترهای تنظیم دقیق را از اپراتور بدست آورد، ممکن است برای مشتری دشوار باشد که به عملکرد و عملکردی معادل از اپراتور دیگر بدون صرف زمان و هزینه قابل توجهی دست یابد. . تنظیم دقیق مدل اپراتور جدید

این ممکن است تعداد زیادی از مشتریان را که به مدل‌های تنظیم‌شده دقیق متکی هستند از اپراتورهای متحرک منصرف کند و در دراز مدت ظهور اپراتورهای جدید را خفه کند.

رویکردهای نظارتی متفاوت

قوانین ضد انحصار و حمایت از مصرف کننده معمولاً پس از بروز مشکلات به آنها رسیدگی می کند. با توجه به سرعت تکامل این بازارها و تأثیرات شبکه قابل توجه و مزایای حرکت اول، چنین اعمال پس از واقعیت در حل نگرانی های رقابت دیجیتال کمتر مؤثر تلقی می شود. این امر باعث شده است تا با رویکردهای مختلف در سطح بین‌المللی، مقررات اولیه مورد توجه قرار گیرد.

اتحادیه اروپا در تنظیم بازیگران دیجیتالی اصلی با قانون بازارهای دیجیتال رهبری کرده است، که برخی از پلتفرم های آنلاین بزرگ را به عنوان “دروازه بان” مشروط به دسترسی، قابلیت همکاری و الزامات رفتار منصفانه واجد شرایط می کند. اتحادیه اروپا همچنین در زمینه حفاظت‌های مرتبط با هوش مصنوعی جلوتر است: قانون هوش مصنوعی اتحادیه اروپا بر ارائه‌دهندگان سیستم‌های هوش مصنوعی حاکم خواهد بود که سیستم‌های هوش مصنوعی را در اتحادیه اروپا ارائه می‌دهند (خواه آنها به صورت فیزیکی در اتحادیه اروپا حضور داشته باشند یا نباشند) و دستورالعمل مسئولیت‌پذیری هوش مصنوعی اتحادیه اروپا این کار را آسان‌تر می‌کند. قربانیان آسیب های ناشی از هوش مصنوعی برای اثبات مسئولیت و دریافت غرامت.

در مقایسه، بریتانیا قصد دارد یک اکوسیستم هوش مصنوعی پیشرو در جهان را بدون قوانین خاص هوش مصنوعی ایجاد کند. در عوض، رگولاتورهای فردی اصول راهنما، چک لیست ها و تکنیک هایی را برای توسعه و ارائه سیستم های هوش مصنوعی منتشر کرده اند و تحریم هایی را در چارچوب وظایف مربوطه اعمال خواهند کرد. به همین منظور، سازمان رقابت و بازار (CMA) یافته‌های اولیه را از بررسی مدل‌های بنیاد هوش مصنوعی خود در سپتامبر ۲۰۲۳ منتشر کرد و دفتر ارتباطات، خدمات زیرساخت ابری عمومی را که منبعی حیاتی برای توسعه‌دهندگان و مشتریان مدل‌های بنیاد است، به طور کامل ارجاع داد. بررسی بازار در اکتبر ۲۰۲۳٫ لایحه بازارهای دیجیتال، رقابت و مصرف کنندگان که در حال حاضر در پارلمان تصویب می شود، به CMA اجازه می دهد تا تعهدات عادلانه و شفافیت را برای شرکت هایی که دارای “وضعیت بازار استراتژیک” برای مدل های بنیادی و/یا نرم افزارهای مرتبط هستند، اعمال کند و CMA به طور قابل توجهی قدرت اجرای مصرف کننده را افزایش داد.

ایالات متحده به طور قابل توجهی از اتحادیه اروپا و بریتانیا در تنظیم هوش مصنوعی در سطح فدرال عقب است. در ژوئیه ۲۰۲۳، کاخ سفید جلسه ای از شرکت های برجسته هوش مصنوعی تشکیل داد که مجموعه ای از تعهدات داوطلبانه را در مورد امنیت تست، تعصب و حریم خصوصی تحقیق، به اشتراک گذاری ریسک اطلاعات و اقدامات شفافیت. پرزیدنت بایدن همچنین یک فرمان اجرایی صادر کرده است که سازمان های فدرال را به توسعه استانداردهای ایمنی و امنیت هوش مصنوعی جدید سوق می دهد.

فرصتی برای اجماع

به سختی یک سال از راه اندازی ChatGPT توسط OpenAI می گذرد که هوش مصنوعی و مدل های پایه را به خط مقدم آگاهی عمومی رساند. توسعه و استفاده از GenAI تصاعدی به نظر می‌رسد، و دولت‌ها برای تنظیم خطرات بالقوه آن بدون محدود کردن پتانسیل تحول‌آفرین یا دلسرد کردن سرمایه‌گذاری‌های مرتبط با هوش مصنوعی در حوزه‌های قضایی خود رقابت می‌کنند.

در این زمینه، شرکت‌کنندگان در اجلاس ایمنی هوش مصنوعی بریتانیا در نوامبر امسال، بحث‌های زیادی داشتند. این اجلاس دولت‌ها، دانشگاهیان، جامعه مدنی و نمایندگان شرکت‌ها را گرد هم می‌آورد تا نحوه مدیریت خطرات سوء استفاده و از دست دادن کنترل ناشی از پیشرفت‌های اخیر در هوش مصنوعی را با هدف ارتقای همکاری‌های بین‌المللی و بهترین عملکرد بررسی کنند.

در این اجلاس درباره رقابت و حمایت از مصرف کننده در GenAI، جایی که همکاری بین المللی محدود به نظر می رسد، بحث نخواهد شد. با توسعه استفاده و قابلیت های GenAI، سه سوال برای تقویت رقابت، نوآوری و انتخاب آگاهانه مصرف کننده حیاتی است.

ما بهترین ابزار CX را معرفی کرده ایم.


منبع: https://www.techradar.com/pro/generative-ai-questions-for-competition-and-consumer-protection-authorities

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *