مولد هوش مصنوعی: ۳ سوال حیاتی برای مقامات رقابت و حمایت از مصرف کننده به سختی یک سال از راه اندازی آن می گذرد ChatGPT توسط OpenAI، هوش مصنوعی مولد و مدلهای بنیادی را در خط مقدم آگاهی عمومی قرار داد. توسعه و استفاده از GenAI تصاعدی به نظر میرسد، و دولتها برای تنظیم خطرات بالقوه آن بدون محدود کردن پتانسیل تحولآفرین یا دلسرد کردن سرمایهگذاریهای مرتبط با هوش مصنوعی در حوزههای قضایی خود رقابت میکنند.
در این زمینه، شرکت کنندگان در اجلاس ایمنی هوش مصنوعی بریتانیا در ۱ و ۲ نوامبر ۲۰۲۳ بحث های زیادی برای بحث دارند. این اجلاس دولتها، دانشگاهیان، جامعه مدنی و نمایندگان شرکتها را گرد هم میآورد تا نحوه مدیریت سوءاستفاده و خطرات از دست دادن کنترل ناشی از پیشرفتهای اخیر در هوش مصنوعی را با هدف ارتقای بینالمللی بررسی کنند. همکاری و بهترین شیوه ها
در این اجلاس درباره رقابت و حمایت از مصرف کننده در GenAI، جایی که همکاری بین المللی محدود به نظر می رسد، بحث نخواهد شد. با توسعه استفاده و قابلیت های GenAI، سه سوال برای تقویت رقابت، نوآوری و انتخاب آگاهانه مصرف کننده حیاتی است.
سوال ۱: چگونه تنظیم کننده ها می توانند رهبری GenAI را به جای تسلط GenAI ارتقا دهند؟
مدلهای پیشرو و ابزارهای مرتبط توسط تعداد کمی از بازیکنان بزرگ ارائه میشوند. بازیگران کوچکتر نیز محصولات نوآورانهای را به بازار میآورند، اما بسیاری از آنها محصولات خود را بر اساس مدلهای توسعهیافته توسط بازیگران بزرگتر پایهگذاری میکنند.
ضمن شناسایی و پاداش دادن به سرمایه گذاری های قابل توجه توسط بازیگران اصلی، برای تنظیم کننده ها مهم است که محیطی را ایجاد کنند که در آن دسترسی به مدل ها با شرایط منصفانه، معقول و بدون تبعیض فراهم شود. بزرگترین بازیگران پیشنهادات پایین دستی خود و همچنین سرمایه گذاری های استراتژیک و مشارکت با سایر توسعه دهندگان هوش مصنوعی دارند. این ترتیبات میتواند کارایی، قابلیتهای جدید و افزایش انتخاب مصرفکننده را به همراه داشته باشد، اما همچنین فرصتهایی را برای حذف رقبای پاییندستی یا قفل کردن عرضه خدمات به اپراتورهای پاییندستی با شرایطی که به نفع بازیگر بزرگتر است، فراهم میکند.
همچنین باید رقابت بین اپراتورهای مدل تشویق شود تا از توسعه مدلهای با کیفیت بالا و استراتژیهای مختلف کسب درآمد، از جمله حمایت شود. متن باز و حالت های منبع بسته رقابت محدود بین اپراتورهای مدل نیز ممکن است تمایز محصولات پاییندستی را کاهش دهد: اگر همان درخواست توسط چندین ارائهدهنده پاییندستی به یک مدل اصلی ارائه شود، آن مدل نتیجه یکسان یا مشابه را نشان میدهد.
سوال ۲: آیا بازیکنان نسبت به سرعت GenAI به ایمنی GenAI متعهد خواهند بود؟
GenAI سرمایه گذاری و توجه عمومی قابل توجهی را به خود جلب می کند. در نتیجه، برخی اپراتورها میتوانند عملکرد، هوشمندی و سرعت را به ضرر ایمنی مصرفکننده به حداکثر برسانند: پیشرفتها ممکن است آنقدر سودآور، ارزشمند و محبوب باشند که اپراتورها در عجله برای ارائه محصولات جدید جلوتر از رقابت، مکانیسمهای ایمنی کافی را ایجاد نکنند. .
این خطرات تشدید میشوند زیرا بسیاری از مصرفکنندگان در حال حاضر محدودیتهای مدلهای پایه، از جمله پتانسیل ابزارهای محبوب برای تولید خروجیهای نادرست، مغرضانه، توهینآمیز و متخلف را درک نمیکنند. شفافیت و آموزش در مورد چنین محدودیتهایی حیاتی است، در حالی که فناوری برای مقابله با این مسائل بهبود مییابد، از جمله برای فعال کردن مشاغلی که هوش مصنوعی را در محصولات خود وارد میکنند تا تعهدات قانونی مصرفکننده خود را برآورده کنند.
نهادهای صنعتی، مانند انجمن مدل مرزی، بدون شک توسعه و انتشار بهترین شیوه ها را تسهیل خواهند کرد. برای ایجاد رقابت در رابطه با تجربه مصرف کننده، رسیدگی به شکایات و جبران خسارت، اطمینان از شفافیت پاسخگویی در سراسر زنجیره ارزش بسیار مهم است.
سوال ۳: آیا اپراتورهای مدل فونداسیون می توانند بدون ایجاد مانعی برای سوئیچینگ به خواسته های تنظیم دقیق پاسخ دهند؟
تنظیم دقیق مدل های پایه را قادر می سازد تا برای مواجهه با مشتری خاص اصلاح شوند برنامه های کاربردی. در حالی که سودمندی مدلهای سفارشی برای یک تجارت آشکار است، اتکای گسترده به چنین مدلهایی در شکل فعلیشان ممکن است بر رشد بازار تأثیر منفی بگذارد.
آ مشتری بعید است که یک اپراتور مدل حقوق مالکیت را در نسخه تنظیم شده آن مدل به دست آورد: تنظیم دقیق فقط یک نسخه اصلاح شده از مدل پایه ایجاد می کند، بنابراین هرگونه اعطای حقوق در یک مدل تنظیم شده به احتمال زیاد پایه اپراتور را تضعیف می کند. مدل مالکیت در نتیجه، حتی اگر یک مشتری مالکیت داده های تنظیم دقیق خود را حفظ کند و/یا پارامترهای تنظیم دقیق را از اپراتور بدست آورد، ممکن است برای مشتری دشوار باشد که به عملکرد و عملکردی معادل از اپراتور دیگر بدون صرف زمان و هزینه قابل توجهی دست یابد. . تنظیم دقیق مدل اپراتور جدید
این ممکن است تعداد زیادی از مشتریان را که به مدلهای تنظیمشده دقیق متکی هستند از اپراتورهای متحرک منصرف کند و در دراز مدت ظهور اپراتورهای جدید را خفه کند.
رویکردهای نظارتی متفاوت
قوانین ضد انحصار و حمایت از مصرف کننده معمولاً پس از بروز مشکلات به آنها رسیدگی می کند. با توجه به سرعت تکامل این بازارها و تأثیرات شبکه قابل توجه و مزایای حرکت اول، چنین اعمال پس از واقعیت در حل نگرانی های رقابت دیجیتال کمتر مؤثر تلقی می شود. این امر باعث شده است تا با رویکردهای مختلف در سطح بینالمللی، مقررات اولیه مورد توجه قرار گیرد.
اتحادیه اروپا در تنظیم بازیگران دیجیتالی اصلی با قانون بازارهای دیجیتال رهبری کرده است، که برخی از پلتفرم های آنلاین بزرگ را به عنوان “دروازه بان” مشروط به دسترسی، قابلیت همکاری و الزامات رفتار منصفانه واجد شرایط می کند. اتحادیه اروپا همچنین در زمینه حفاظتهای مرتبط با هوش مصنوعی جلوتر است: قانون هوش مصنوعی اتحادیه اروپا بر ارائهدهندگان سیستمهای هوش مصنوعی حاکم خواهد بود که سیستمهای هوش مصنوعی را در اتحادیه اروپا ارائه میدهند (خواه آنها به صورت فیزیکی در اتحادیه اروپا حضور داشته باشند یا نباشند) و دستورالعمل مسئولیتپذیری هوش مصنوعی اتحادیه اروپا این کار را آسانتر میکند. قربانیان آسیب های ناشی از هوش مصنوعی برای اثبات مسئولیت و دریافت غرامت.
در مقایسه، بریتانیا قصد دارد یک اکوسیستم هوش مصنوعی پیشرو در جهان را بدون قوانین خاص هوش مصنوعی ایجاد کند. در عوض، رگولاتورهای فردی اصول راهنما، چک لیست ها و تکنیک هایی را برای توسعه و ارائه سیستم های هوش مصنوعی منتشر کرده اند و تحریم هایی را در چارچوب وظایف مربوطه اعمال خواهند کرد. به همین منظور، سازمان رقابت و بازار (CMA) یافتههای اولیه را از بررسی مدلهای بنیاد هوش مصنوعی خود در سپتامبر ۲۰۲۳ منتشر کرد و دفتر ارتباطات، خدمات زیرساخت ابری عمومی را که منبعی حیاتی برای توسعهدهندگان و مشتریان مدلهای بنیاد است، به طور کامل ارجاع داد. بررسی بازار در اکتبر ۲۰۲۳٫ لایحه بازارهای دیجیتال، رقابت و مصرف کنندگان که در حال حاضر در پارلمان تصویب می شود، به CMA اجازه می دهد تا تعهدات عادلانه و شفافیت را برای شرکت هایی که دارای “وضعیت بازار استراتژیک” برای مدل های بنیادی و/یا نرم افزارهای مرتبط هستند، اعمال کند و CMA به طور قابل توجهی قدرت اجرای مصرف کننده را افزایش داد.
ایالات متحده به طور قابل توجهی از اتحادیه اروپا و بریتانیا در تنظیم هوش مصنوعی در سطح فدرال عقب است. در ژوئیه ۲۰۲۳، کاخ سفید جلسه ای از شرکت های برجسته هوش مصنوعی تشکیل داد که مجموعه ای از تعهدات داوطلبانه را در مورد امنیت تست، تعصب و حریم خصوصی تحقیق، به اشتراک گذاری ریسک اطلاعات و اقدامات شفافیت. پرزیدنت بایدن همچنین یک فرمان اجرایی صادر کرده است که سازمان های فدرال را به توسعه استانداردهای ایمنی و امنیت هوش مصنوعی جدید سوق می دهد.
فرصتی برای اجماع
به سختی یک سال از راه اندازی ChatGPT توسط OpenAI می گذرد که هوش مصنوعی و مدل های پایه را به خط مقدم آگاهی عمومی رساند. توسعه و استفاده از GenAI تصاعدی به نظر میرسد، و دولتها برای تنظیم خطرات بالقوه آن بدون محدود کردن پتانسیل تحولآفرین یا دلسرد کردن سرمایهگذاریهای مرتبط با هوش مصنوعی در حوزههای قضایی خود رقابت میکنند.
در این زمینه، شرکتکنندگان در اجلاس ایمنی هوش مصنوعی بریتانیا در نوامبر امسال، بحثهای زیادی داشتند. این اجلاس دولتها، دانشگاهیان، جامعه مدنی و نمایندگان شرکتها را گرد هم میآورد تا نحوه مدیریت خطرات سوء استفاده و از دست دادن کنترل ناشی از پیشرفتهای اخیر در هوش مصنوعی را با هدف ارتقای همکاریهای بینالمللی و بهترین عملکرد بررسی کنند.
در این اجلاس درباره رقابت و حمایت از مصرف کننده در GenAI، جایی که همکاری بین المللی محدود به نظر می رسد، بحث نخواهد شد. با توسعه استفاده و قابلیت های GenAI، سه سوال برای تقویت رقابت، نوآوری و انتخاب آگاهانه مصرف کننده حیاتی است.
منبع: https://www.techradar.com/pro/generative-ai-questions-for-competition-and-consumer-protection-authorities