VentureBeat ارائه می دهد: AI Unleashed – یک رویداد اجرایی انحصاری برای رهبران داده های سازمانی. در ۱۵ نوامبر از رهبران برتر صنعت بشنوید. پاس رایگان خود را رزرو کنید
انویدیا در حال تقویت استراتژی فروش مشترک خود با مایکروسافت است. امروز، در کنفرانس آتش زدن به میزبانی غول به رهبری ساتیا نادلا، این سازنده تراشه یک سرویس ریخته گری هوش مصنوعی را معرفی کرد که به شرکت ها و استارت آپ ها کمک می کند تا برنامه های کاربردی هوش مصنوعی سفارشی را روی ابر Azure بسازند، از جمله برنامه هایی که می توانند از داده های سازمانی با بازیابی تولید افزوده (RAG) بهره ببرند.
“سرویس ریخته گری هوش مصنوعی انویدیا ما را ترکیب می کند هوش مصنوعی مولد فناوریهای مدل، تخصص آموزش LLM و کارخانه هوش مصنوعی در مقیاس بزرگ. جنسن هوانگ، بنیانگذار و مدیر عامل انویدیا در بیانیه ای گفت: ما این را در Microsoft Azure ساخته ایم تا شرکت ها در سراسر جهان بتوانند مدل سفارشی خود را با سرویس های ابری پیشرو مایکروسافت متصل کنند.
انویدیا همچنین مدلهای جدید ۸ میلیارد پارامتری – همچنین بخشی از سرویس ریختهگری – و همچنین برنامهای برای اضافه کردن نسل بعدی GPU خود به Microsoft Azure در ماههای آینده اعلام کرد.
سرویس ریخته گری هوش مصنوعی چگونه به Azure کمک می کند؟
با سرویس ریختهگری هوش مصنوعی انویدیا در Azure، شرکتهایی که از پلتفرم ابری استفاده میکنند، تمام عناصر کلیدی مورد نیاز برای ساختن یک برنامه کاربردی هوش مصنوعی تولیدی سفارشی و تجاری محور را در یک مکان دریافت خواهند کرد. این بدان معناست که همه چیز از مدل های پایه هوش مصنوعی انویدیا و چارچوب NeMo گرفته تا سرویس ابررایانه ابری Nvidia DGX به صورت سرتاسر در دسترس خواهد بود.
“برای اولین بار، کل این فرآیند با تمام قطعات مورد نیاز، از سختافزار گرفته تا نرمافزار، در Microsoft Azure در دسترس است. هر مشتری میتواند بیاید و کل گردش کار هوش مصنوعی سازمانی را با Nvidia در Azure انجام دهد. آنها میتوانند مولفههای مورد نیاز این فناوری را مستقیماً در Azure تهیه کنید. به زبان ساده، این یک فروش مشترک بین انویدیا و مایکروسافت است.
انویدیا برای ارائه طیف گستردهای از مدلهای پایه برای کار با شرکتها در هنگام استفاده از سرویس ریختهگری در محیطهای Azure، خانواده جدیدی از مدلهای Nemotoron-3 8B را اضافه میکند که از ایجاد چت سازمانی پیشرفته و برنامههای کاربردی پرسش و پاسخ برای صنایعی مانند خدمات بهداشتی، مخابراتی و مالی. این مدلها دارای قابلیتهای چند زبانه هستند و قرار است از طریق کاتالوگ مدلهای هوش مصنوعی Azure و همچنین از طریق Hugging Face و کاتالوگ Nvidia NGC در دسترس قرار گیرند.
دیگر مدلهای بنیاد جامعه در کاتالوگ Nvidia عبارتند از Llama 2 (همچنین به کاتالوگ هوش مصنوعی Azure میآید)، Stable Diffusion XL و Mistral 7b.
هنگامی که کاربر به مدل انتخابی دسترسی پیدا کرد، میتواند به مرحله آموزش و استقرار برای برنامههای کاربردی سفارشی با Nvidia DGX Cloud و نرمافزار AI Enterprise که از طریق در دسترس است حرکت کند. بازار لاجوردی. DGX Cloud دارای نمونه هایی است که مشتریان می توانند برای آموزش به هزاران پردازنده گرافیکی NVIDIA Tensor Core اجاره کنند و شامل جعبه ابزار AI Enterprise است که چارچوب NeMo و سرور استنتاج انویدیا Triton را به سرویس هوش مصنوعی درجه سازمانی Azure می آورد تا LLM را سرعت بخشد. سفارشی سازی
انویدیا ضمن اشاره به اینکه کاربران می توانند از اعتبارات تعهد مصرف Microsoft Azure موجود خود برای بهره مندی از این پیشنهادات و توسعه مدل سرعت استفاده کنند، گفت: این جعبه ابزار نیز به عنوان یک محصول جداگانه در بازار موجود است.
قابل ذکر است، این شرکت نیز داشته است همکاری مشابهی با اوراکل اعلام کرد ماه گذشته، به شرکتهای واجد شرایط این امکان را داد که ابزارها را مستقیماً از Oracle Cloud خریداری کنند بازار و مدل های آموزشی را برای استقرار در زیرساخت ابری Oracle (OCI) شروع کنید.
در حال حاضر، نرمافزارهای اصلی SAP، Amdocs و Getty Images از جمله کاربران اولیهای هستند که سرویس ریختهگری را روی Azure آزمایش کردند و برنامههای هوش مصنوعی سفارشی را با هدف استفادههای مختلف ساختند.
چه چیزی بیشتر از Nvidia و مایکروسافت؟
مایکروسافت و انویدیا در کنار خدمات هوش مصنوعی مولد، همکاری خود را برای جدیدترین سخت افزار این سازنده تراشه گسترش دادند.
به طور خاص، مایکروسافت ماشینهای مجازی جدید NC H100 v5 را برای Azure معرفی کرد، اولین نمونههای ابری صنعت با یک جفت پردازنده گرافیکی H100 مبتنی بر PCIe که از طریق Nvidia NVLink متصل شدهاند، با تقریباً چهار پتافلاپ محاسبات AI و ۱۸۸ گیگابایت حافظه سریعتر HBM3.
پردازنده گرافیکی Nvidia H100 NVL می تواند تا ۱۲ برابر عملکرد بالاتری را در GPT-3 175B نسبت به نسل قبلی ارائه دهد و برای استنتاج و بارهای آموزشی اصلی ایده آل است.
علاوه بر این، این شرکت قصد دارد تا جدید را اضافه کند Nvidia H200 Tensor Core GPU به ناوگان Azure خود در سال آینده. این پیشنهاد ۱۴۱ گیگابایت حافظه HBM3e (1.8 برابر بیشتر از نسخه قبلی خود) و ۴٫۸ ترابایت بر ثانیه حداکثر پهنای باند حافظه (افزایش ۱٫۴ برابری) را به ارمغان می آورد که به عنوان یک راه حل هدفمند برای اجرای بزرگترین حجم کاری هوش مصنوعی، از جمله آموزش هوش مصنوعی تولیدی و استنتاج
به مایکروسافت جدید خواهد پیوست شتاب دهنده هوش مصنوعی Maia 100به کاربران Azure چندین گزینه برای انتخاب برای بارهای کاری هوش مصنوعی می دهد.
در نهایت، برای تسریع کار LLM روی دستگاههای ویندوز، انویدیا مجموعهای از بهروزرسانیها را اعلام کرد، از جمله بهروزرسانی برای TensorRT LLM برای Widows، که پشتیبانی از مدلهای جدید زبان بزرگ مانند Mistral 7B و Nemotron-3 8B را معرفی میکند.
این بهروزرسانی که قرار است اواخر این ماه منتشر شود، عملکرد استنتاجی پنج برابر سریعتر را نیز ارائه میکند که اجرای این مدلها را روی دسکتاپ و لپتاپها با پردازندههای گرافیکی GeForce RTX سری ۳۰ و سری ۴۰ با حداقل ۸ گیگابایت رم آسانتر میکند.
انویدیا اضافه کرد که TensorRT-LLM برای ویندوز همچنین از طریق یک پوشش جدید با OpenAI Chat API سازگار خواهد بود و صدها پروژه و برنامه توسعه دهنده را قادر میسازد تا بهجای فضای ابری، روی رایانههای شخصی ویندوز ۱۱ با RTX اجرا شوند.
ماموریت VentureBeat این است که یک میدان شهر دیجیتال برای تصمیم گیرندگان فنی باشد تا دانشی در مورد فناوری سازمانی متحول کننده کسب کنند و معامله کنند. جلسات توجیهی ما را کشف کنید.
منبع: https://venturebeat.com/ai/nvidia-launches-ai-foundry-service-for-microsoft-azure-with-new-nemotron-3-8b-models/