برای مشاهده جلسات VB Transform 2023 به کتابخانه درخواستی ما مراجعه کنید. اینجا ثبت نام کنید
از لحاظ تاریخی، دورههای پیشرفت و تغییر سریع، زمانهای عدم قطعیت بزرگ را آغاز کردهاند. جان کنت گالبریت، اقتصاددان هاروارد، در کتاب خود در سال ۱۹۷۷ در مورد چنین زمانی نوشت. عصر عدم قطعیتکه در آن او موفقیت های اقتصاد بازار را مورد بحث قرار داد، اما همچنین دوره ای از بی ثباتی، ناکارآمدی و نابرابری اجتماعی را پیش بینی کرد.
امروز، در حالی که امواج دگرگون کننده هوش مصنوعی را طی می کنیم، خود را در آستانه عصر جدیدی می یابیم که با عدم قطعیت های مشابه مشخص شده است. با این حال، این بار نیروی محرکه صرفاً اقتصاد نیست – بلکه حرکت بی امان فناوری، به ویژه ظهور و تکامل هوش مصنوعی است.
ردپای در حال رشد هوش مصنوعی
در حال حاضر، تأثیر هوش مصنوعی در زندگی روزمره بیشتر قابل تشخیص است. از آهنگ های تولید شده توسط هوش مصنوعی، هایکوهای نوشته شده به سبک شکسپیر، وسایل نقلیه خودران، ربات های چت که می توانند از عزیزان از دست رفته تقلید کنند و دستیاران هوش مصنوعی که به ما در کار کمک می کنند، این فناوری شروع به فراگیر شدن کرده است.
هوش مصنوعی به زودی با استفاده از آن بسیار رایج تر خواهد شد نزدیک شدن به سونامی هوش مصنوعی. پروفسور اتان مولیک، استاد مدرسه وارتون، اخیراً در مورد نتایج یک آزمایش بر روی آن نوشت آینده کار حرفه ای. این آزمایش حول دو گروه از مشاوران که برای گروه مشاوران بوستون کار می کردند متمرکز بود. به هر گروه وظایف مشترک مختلفی داده شد. یک گروه توانست از هوش مصنوعی در حال حاضر برای افزایش تلاش خود استفاده کند در حالی که گروه دیگر اینطور نبود.
Mollick گزارش داد: “مشاورانی که از هوش مصنوعی استفاده می کردند به طور متوسط ۱۲٫۲٪ وظایف بیشتری را به پایان رساندند، وظایف را ۲۵٫۱٪ سریعتر انجام دادند و ۴۰٪ نتایج با کیفیت بالاتری نسبت به کسانی که بدون آن نبودند.”
البته، ممکن است مشکلات ذاتی در مدلهای زبان بزرگ (LLM)، مانند confabulation و bias، باعث شود که این موج به سادگی از بین برود – اگرچه این امر اکنون بعید به نظر میرسد. در حالی که این فناوری در حال حاضر پتانسیل مخرب خود را نشان می دهد، چندین سال طول می کشد تا بتوانیم قدرت سونامی را تجربه کنیم. در اینجا نگاهی به آنچه در راه است است.
موج بعدی مدل های هوش مصنوعی
نسل بعدی LLM ها پیچیده تر و عمومی تر از محصول فعلی خواهد بود که شامل GPT-4 (OpenAI)، PalM 2 (Google)، LLaMA (Meta) و Claude 2 (Anthropic) می شود. این احتمال وجود دارد که یک مدل جدید و احتمالاً بسیار توانا از xAI، مدل جدید ایلان ماسک نیز وجود داشته باشد. استارت آپ. قابلیت هایی مانند استدلال، عقل سلیم و قضاوت همچنان چالش های بزرگی برای این مدل ها هستند. با این حال، میتوان انتظار داشت که در هر یک از این زمینهها شاهد پیشرفت باشیم.
در میان نسل بعدی، وال استریت ژورنال گزارش شده است متا در حال کار بر روی یک LLM است که حداقل به اندازه GPT-4 توانایی دارد. طبق این گزارش، انتظار میرود این اتفاق در سال ۲۰۲۴ باشد. منطقی است که انتظار داشته باشیم OpenAI نیز روی نسل بعدی آنها کار کند، اگرچه آنها در بحث درباره برنامهها سکوت کردهاند. که احتمالا زیاد دوام نخواهد آورد.
بر اساس اطلاعات موجود در حال حاضر، مهمترین مدل جدید «جمینی» از تیم ترکیبی Google Brain و DeepMind AI است. جمینی می تواند از هر چیزی که امروزه در دسترس است پیشی بگیرد. ساندار پیچای، مدیرعامل آلفابت اعلام کرد در ماه مه گذشته آموزش این مدل در حال انجام بود.
پیچای در الف وبلاگ در آن زمان: “در حالی که هنوز زود است، ما در حال حاضر شاهد قابلیت های چندوجهی چشمگیر هستیم که در مدل های قبلی دیده نشده است.”
چند وجهی به این معنی است که می تواند انواع مختلفی از ورودی های داده (متن و تصاویر) را پردازش و درک کند، که به عنوان پایه ای برای برنامه های کاربردی مبتنی بر متن و مبتنی بر تصویر عمل می کند. اشاره به قابلیتهایی که در مدلهای قبلی دیده نمیشد به این معنی است که میتواند ویژگیها و رفتارهای اضطراری یا پیشبینینشدهتری وجود داشته باشد. یک مثال نوظهور از نسل کنونی، توانایی ایجاد کد کامپیوتری است، زیرا این یک قابلیت مورد انتظار نبود.
چاقوی ارتش سوئیس از مدل های هوش مصنوعی؟
وجود داشته است گزارش ها گوگل به گروه کوچکی از شرکت ها اجازه دسترسی به نسخه اولیه Gemini را داده است. یکی از آنها میتواند SemiAnalysis، یک شرکت تحقیقاتی نیمهرسانا باشد. بر اساس یک جدید پost از سوی این شرکت، Gemini می تواند ۵ تا ۲۰ برابر پیشرفته تر از مدل های GPT-4 در حال حاضر در بازار باشد.
طراحی Gemini احتمالا بر اساس Gato DeepMind است که در سال ۲۰۲۲ فاش شد. A VentureBeat مقاله سال گذشته گزارش داد: « یادگیری عمیق [Gato] مدل ترانسفورماتور به عنوان یک «عامل کلی» توصیف میشود و به دنبال انجام ۶۰۴ کار متمایز و اغلب پیش پا افتاده با روشها، مشاهدات و مشخصات عملی متفاوت است. بوده است معرفی شده به عنوان چاقوی ارتش سوئیس مدل های هوش مصنوعی. این به وضوح بسیار کلی تر از سایر سیستم های هوش مصنوعی است که تاکنون توسعه یافته اند و از این نظر به نظر می رسد گامی به سوی آن باشد AGI [artificial general intelligence]”
به سوی هوش عمومی مصنوعی (AGI)
قبلاً تصور می شود که GPT-4 “جرقه های AGI” را نشان می دهد. بر این اساس به مایکروسافت، قادر به حل وظایف بدیع و دشواری است که شامل ریاضیات، کدنویسی، چشم انداز، پزشکی، حقوق، روانشناسی و غیره است، بدون نیاز به هیچ گونه درخواست خاصی. با جهش تمام مدل های موجود، Gemini می تواند در واقع گام بزرگی به سوی AGI باشد. گمانه زنی ها حاکی از آن است که Gemini در چندین سطح از قابلیت های مدل، احتمالا طی چند ماه و شاید تا قبل از پایان سال جاری عرضه خواهد شد.
همانطور که Gemini احتمالاً چشمگیر است، حتی مدل های بزرگتر و پیچیده تری نیز انتظار می رود. مصطفی سلیمان، مدیر عامل و بنیانگذار هوش مصنوعی Inflection و یکی از بنیانگذاران DeepMind، در طول یک Economist پیش بینی کرد. گفتگو که «در پنج سال آینده، شرکتهای مدلسازی مرزی – آنهایی از ما که در حال حاضر در حال آموزش بزرگترین مدلهای هوش مصنوعی هستیم – مدلهایی را آموزش میدهند که بیش از هزار برابر بزرگتر از آنچه امروز در GPT میبینید. ۴٫”
کاربردهای بالقوه و تأثیری که این مدلها میتوانند در زندگی روزمره ما داشته باشند، میتواند بینظیر باشد، با پتانسیل مزایای بزرگ و همچنین خطرات افزایش یافته. نمایشگاه Vanity Fair نقل قول ها دیوید چالمرز، استاد فلسفه و علوم اعصاب در دانشگاه نیویورک: “مزایای مثبت این امر بسیار زیاد است، شاید این سیستم ها درمان بیماری ها و راه حل هایی برای مشکلاتی مانند فقر و تغییرات آب و هوایی پیدا کنند، و اینها جنبه های مثبت بسیار زیادی دارند.” این مقاله همچنین خطرات بالقوه را با استناد به پیشبینیهای کارشناسان از پیامدهای وحشتناک از جمله احتمال انقراض انسان، با تخمینهای احتمالی از ۱٪ تا ۵۰٪ مورد بحث قرار میدهد.
پایان تاریخ تحت سلطه بشر؟
در گفتگوی اکونومیست، مورخ یووال نوح هراری گفت این پیشرفتهای آینده در توسعه هوش مصنوعی پایان تاریخ نیست، بلکه پایان تاریخ تحت سلطه انسان است. تاریخ با کنترل شخص دیگری ادامه خواهد داشت. من به آن بیشتر به عنوان یک تهاجم بیگانگان فکر می کنم.”
که سلیمان به آن پاسخ داد: ابزارهای هوش مصنوعی عاملیتی ندارند، به این معنی که آنها نمی توانند کاری فراتر از آنچه انسان ها به آنها قدرت می دهند انجام دهند. هراری سپس پاسخ داد که این هوش مصنوعی آینده می تواند “هوشمندتر از ما” باشد. چگونه از توسعه آژانس باهوش تر از شما جلوگیری می کنید؟ با آژانس، یک هوش مصنوعی می تواند اقداماتی را دنبال کند که ممکن است با نیازها و ارزش های انسانی همسو نباشد.
این مدلهای نسل بعدی نشاندهنده گام بعدی به سوی AGI و آیندهای هستند که در آن هوش مصنوعی حتی برای زندگی مدرن بسیار توانمندتر، یکپارچهتر و ضروریتر میشود. در حالی که دلایل زیادی برای امیدواری وجود دارد، این تحولات جدید مورد انتظار انگیزه بیشتری به درخواستها برای نظارت و مقررات میافزاید.
معمای نظارتی
حتی رهبران شرکت هایی که مدل های مرزی تولید می کنند موافق هستند که مقررات لازم است. پس از بسیاری از به طور مشترک در برابر سنای ایالات متحده ظاهر شد در ۱۳ سپتامبر، فورچون گزارش شده است که آنها “به راحتی ایده مقررات دولتی را تایید کردند” و “توافق کمی در مورد اینکه مقررات چگونه به نظر می رسد وجود دارد.”
این جلسه توسط سناتور چاک شومر سازماندهی شد که بعداً در مورد چالش های پیش روی در تدوین مقررات مناسب بحث کرد. او خاطرنشان کرد که هوش مصنوعی از نظر فنی پیچیده است، مدام در حال تغییر است و “تاثیر گسترده و گسترده ای در سراسر جهان دارد.”
حتی ممکن است به طور واقعی امکان تنظیم هوش مصنوعی وجود نداشته باشد. برای یک چیز، بسیاری از فن آوری به عنوان نرم افزار منبع باز منتشر شده است، به این معنی که به طور موثر در طبیعت برای هر کسی قابل استفاده است. این به تنهایی می تواند بسیاری از تلاش های نظارتی را مشکل ساز کند.
احتیاط منطقی و عقلانی
برخی اظهارات عمومی رهبران هوش مصنوعی در حمایت از نمایشنامه مقررات را می بینند. MarketWatch گزارش داد دیدگاه ها تام سیبل، مدیر اجرایی قدیمی دره سیلیکون و مدیر عامل فعلی C3 AI: “مدیران هوش مصنوعی با قانونگذاران بازی می کنند و از آنها می خواهند که ما را تنظیم کنند. اما پول و سرمایه فکری کافی برای اطمینان از میلیون ها نفر وجود ندارد. الگوریتم ها ایمن هستند آنها می دانند که غیرممکن است.
ممکن است واقعا غیرممکن باشد، اما ما باید تلاش کنیم. همانطور که سلیمان در گفتگوی اکونومیست خود خاطرنشان کرد: “این لحظه ای است که ما باید یک اصل احتیاطی را اتخاذ کنیم، نه از طریق هر عامل ترس، بلکه فقط به عنوان یک راه منطقی و معقول برای ادامه کار.”
از آنجایی که هوش مصنوعی به سرعت از قابلیتهای محدود به سمت AGI پیش میرود، این وعده بسیار زیاد است، اما خطرات آن عمیق است. این عصر عدم اطمینان عمیقترین وجدان، خرد و احتیاط ما را میطلبد تا این فناوریهای هوش مصنوعی را به نفع بشریت توسعه دهیم و در عین حال از خطرات بالقوه شدید جلوگیری کنیم.
گری گروسمن معاون ارشد فن آوری در ادلمن و رهبر جهانی مرکز تعالی هوش مصنوعی Edelman.
DataDecisionMakers
به انجمن VentureBeat خوش آمدید!
DataDecisionMakers جایی است که کارشناسان، از جمله افراد فنی که کار داده را انجام می دهند، می توانند بینش ها و نوآوری های مرتبط با داده را به اشتراک بگذارند.
اگر میخواهید درباره ایدههای پیشرفته و اطلاعات بهروز، بهترین شیوهها و آینده فناوری داده و داده مطالعه کنید، به ما در DataDecisionMakers بپیوندید.
حتی ممکن است در نظر بگیرید مشارکت در مقاله از خودت!
منبع: https://venturebeat.com/ai/the-ai-age-of-uncertainty/