VentureBeat ارائه می دهد: AI Unleashed – یک رویداد اجرایی انحصاری برای رهبران داده های سازمانی. شبکه و یادگیری با همتایان صنعت. بیشتر بدانید
امروز، شرکت داده به عنوان سرویس و ذخیره سازی ابری مستقر در مونتانا دانه برف Cortex را اعلام کرد، یک سرویس کاملاً مدیریت شده که قدرت مدلهای زبان بزرگ (LLM) را به ابر داده خود میآورد.
در سالانه این شرکت رونمایی شد روز برفی در این رویداد، Cortex به شرکتهایی که از ابر داده Snowflake استفاده میکنند، مجموعهای از بلوکهای سازنده هوش مصنوعی، از جمله LLMهای منبع باز را برای تجزیه و تحلیل دادهها و ساخت برنامههایی با هدف قرار دادن موارد استفاده خاص کسبوکار ارائه میدهد.
با Snowflake Cortex، کسبوکارها اکنون میتوانند در عرض چند ثانیه از مدلهای زبان بزرگ استفاده کنند، برنامههای سفارشی مبتنی بر LLM را در عرض چند دقیقه بسازند، و انعطافپذیری و کنترل روی دادههای خود را حفظ کنند – در حالی که تصور میکنند همه کاربران چگونه از آن استفاده میکنند. هوش مصنوعی مولد Sridhar Ramaswamy، معاون هوش مصنوعی در Snowflake در بیانیه ای گفت: برای ارائه ارزش تجاری.
این پیشنهاد امروز به پیشنمایش خصوصی میرود و همراه با مجموعهای از مدلهای خاص کار است که برای سادهسازی عملکردهای خاص در ابر داده طراحی شدهاند. Snowflake همچنین از آن برای سه ابزار هوش مصنوعی نسل خود استفاده می کند: Snowflake copilot، Universal search و Document AI.
ساخت برنامه های LLM با Cortex
امروزه، شرکتها میخواهند از هوش مصنوعی مولد استقبال کنند، اما با توجه به محدودیتهای مرتبط با این فناوری – از جمله نیاز به استعداد هوش مصنوعی و مدیریت پیچیده زیرساختهای GPU – بسیاری از آنها تولید برنامهها را دشوار میدانند. Snowflake Cortex قصد دارد کل این فرآیند را ساده کند.
این سرویس مجموعه ای از عملکردهای تخصصی و همه منظوره هوش مصنوعی بدون سرور را در اختیار کاربران قرار می دهد. کاربران میتوانند با فراخوانی در کدهای SQL یا Python به این توابع دسترسی داشته باشند و سفر خود را به موارد کاربردی هوش مصنوعی آغاز کنند – همه در زیرساختهای بهینهسازی هزینه Cortex اجرا میشوند.

توابع تخصصی از مدلهای زبان و یادگیری ماشین استفاده میکنند تا به کاربران اجازه میدهند کارهای تحلیلی خاص را از طریق ورودیهای زبان طبیعی تسریع کنند. به عنوان مثال، مدل ها می توانند پاسخ ها را استخراج کنند، آن اطلاعات را خلاصه کنند یا آن را به زبان دیگری ترجمه کنند. در موارد دیگر، آنها می توانند به ایجاد یک پیش بینی بر اساس داده ها یا تشخیص ناهنجاری ها کمک کنند.
در همین حال، عملکردهای همه منظوره گزینه گسترده تری را ایجاد می کنند که توسعه دهندگان می توانند از آن استفاده کنند. آنها مدل های مختلفی را پوشش می دهند، درست از LLM های منبع باز مانند لاما ۲ به مدلهای اختصاصی Snowflake، از جمله مدلی که برای تبدیل ورودیهای متن به SQL برای جستجوی دادهها.
مهمتر از همه، این توابع همه منظوره همچنین دارای قابلیت های جاسازی برداری و جستجو هستند که به کاربران اجازه می دهد تا به راحتی پاسخ های مدل را بر اساس داده های خود زمینه سازی کنند و برنامه های کاربردی سفارشی را با هدف قرار دادن موارد استفاده مختلف ایجاد کنند. این جنبه با آن رسیدگی می شود Streamlit در دانه برف
راماسوامی، بنیانگذار Neeva، شرکت هوش مصنوعی Snowflake که چند ماه پیش آن را خریداری کرد، در یک نشست مطبوعاتی گفت: «این برای کاربران ما عالی است زیرا آنها نیازی به انجام هیچ گونه تدارکاتی ندارند. ما تدارکات و استقرار را انجام می دهیم یک API، مشابه آنچه OpenAI ارائه می دهد اما درست در داخل Snowflake ساخته شده است. دادهها جایی را ترک نمیکنند و با تضمینهایی همراه است که مشتریان ما میخواهند و میخواهند، یعنی دادههای آنها همیشه جدا نگه داشته میشود. این هرگز برای هر نوع آموزش بین مشتری در هم آمیخته نمی شود. این یک محیط امن، امن و به شدت رقابتی است.”
راماسوامی در ادامه تاکید کرد که این پیشنهاد نیازی به برنامهنویسی گسترده ندارد. کاربران فقط باید در محیط SQL کار کنند تا کارها را انجام دهند.
در زمینه برنامه، او گفت که کاربران میتوانند به راحتی چتباتهای مکالمهای بسازند که مطابق با دانش کسبوکارشان باشد، مانند یک خلبان که بهطور خاص در زمینه محتوای کمکی آموزش دیده است.
تجربیات بومی LLM که توسط Cortex پشتیبانی می شود
در حالی که Cortex به تازگی برای استفاده سازمانی معرفی شده است، Snowflake در حال حاضر از این سرویس برای بهبود عملکرد پلت فرم خود با تجربیات بومی LLM استفاده می کند. این شرکت سه قابلیت مجهز به Cortex را در پیش نمایش خصوصی راه اندازی کرده است: Snowflake Copilot، Universal Search و سند هوش مصنوعی.
Copilot به عنوان یک دستیار مکالمه برای کاربران پلتفرم کار می کند و به آنها اجازه می دهد در مورد داده های خود سؤالات خود را به صورت متن ساده بپرسند، پرس و جوهای SQL را بر اساس مجموعه داده های مرتبط بنویسند، پرس و جوها را اصلاح کنند و بینش ها را فیلتر کنند و موارد دیگر.
طناب های جستجوی جهانی در عملکرد جستجوی LLM برای کمک به کاربران برای یافتن و دریافت ارزش از مرتبط ترین داده ها و برنامه ها برای موارد استفاده خود.
در نهایت، Document AI به استخراج اطلاعات (مانند مبلغ فاکتور یا شرایط قراردادی) از اسناد بدون ساختار میزبانی شده در ابر داده Snowflake کمک می کند.
قابل ذکر است، قابلیتهای مشابهی نیز توسط سایر بازیگران صنعت داده ایجاد شده است، از جمله Databricksکه اخیرا LakehouseIQ را معرفی کرد و یکی از بزرگترین رقبای Snowflake است.
Informatica و Dremio همچنین نمایشهای LLM مربوطه خود را ساختهاند و به شرکتها اجازه میدهند دادههای خود را مدیریت کنند یا از طریق ورودیهای زبان طبیعی آنها را جستجو کنند.
اطلاعیه های بیشتر در Snowday 2023
فراتر از Cortex، Snowflake اعلام کرد که در حال ارتقاء پشتیبانی از Iceberg Tables است که به کاربران امکان می دهد سیلوها را حذف کنند و تمام داده های خود را در ابر داده یکپارچه کنند و قابلیت های جدیدی را به راه حل حاکمیت Horizon خود اضافه کند.
این شامل نظارت بر کیفیت داده، یک رابط جدید برای درک اصل و نسب داده ها، طبقه بندی پیشرفته داده ها و یک مرکز اعتماد برای ساده سازی امنیت بین ابری و نظارت بر انطباق است.
در نهایت، این شرکت همچنین راهاندازی یک برنامه مالی را اعلام کرد که قصد دارد تا ۱۰۰ میلیون دلار برای استارتآپهای مرحله اولیه ساخت اپلیکیشنهای بومی Snowflake سرمایهگذاری کند.
این برنامه توسط بازوی VC خودش و همچنین چندین شرکت سرمایه گذاری خطرپذیر از جمله Altimeter Capital، Amplify Partners، Anthos Capital، Coatue، ICONIQ Growth، IVP، Madrona، Menlo Ventures و Redpoint Ventures پشتیبانی شده است.
ماموریت VentureBeat این است که یک میدان شهر دیجیتال برای تصمیم گیرندگان فنی باشد تا دانشی در مورد فناوری سازمانی متحول کننده کسب کنند و معامله کنند. جلسات توجیهی ما را کشف کنید.
منبع: https://venturebeat.com/data-infrastructure/snowflake-unveils-cortex-a-managed-service-to-build-llm-apps-in-the-data-cloud/