انویدیا نسل بعدی تراشههای ابررایانه هوش مصنوعی خود را راهاندازی کرده است که احتمالاً نقش مهمی در پیشرفتهای آینده در یادگیری عمیق و مدلهای زبان بزرگ (LLM) خواهد داشت. GPT-4 OpenAI، این شرکت اعلام کرد. این فناوری نشاندهنده یک جهش قابل توجه در نسل گذشته است و آماده استفاده در مراکز داده و ابررایانهها – کار بر روی کارهایی مانند پیشبینی آب و هوا و آب و هوا، کشف دارو، محاسبات کوانتومی و موارد دیگر است.
محصول کلیدی پردازنده گرافیکی HGX H200 مبتنی بر NVIDIA است "هاپر" معماری، جایگزینی برای GPU محبوب H100. این اولین تراشه این شرکت است که از حافظه HBM3e استفاده میکند که سریعتر و ظرفیت بیشتری دارد، بنابراین برای مدلهای زبان بزرگ مناسبتر است. "NVIDIA H200 با HBM3e 141 گیگابایت حافظه با سرعت ۴٫۸ ترابایت در ثانیه ارائه میکند که تقریباً دو برابر ظرفیت و ۲٫۴ برابر پهنای باند بیشتر در مقایسه با مدل قبلی خود NVIDIA A100 است." شرکت نوشت
از نظر مزایای هوش مصنوعی، انویدیا می گوید HGX H200 سرعت استنتاج را در Llama 2، یک LLM با ۷۰ میلیارد پارامتر، در مقایسه با H100 دو برابر می کند. این در پیکربندیهای ۴ و ۸ جهته در دسترس خواهد بود که با نرمافزار و سختافزار در سیستمهای H100 سازگار است. این در هر نوع مرکز داده (در محل، ابر، ترکیبی-ابر و لبه) کار خواهد کرد و توسط خدمات وب آمازون، Google Cloud، Microsoft Azure و Oracle Cloud Infrastructure و سایر موارد مستقر می شود. قرار است در سه ماهه دوم سال ۲۰۲۴ وارد بازار شود.
محصول کلیدی دیگر NVIDIA GH200 Grace Hopper است "سوپرچیپ" که با GPU HGX H200 و CPU مبتنی بر Arm NVIDIA Grace با استفاده از پیوند NVLink-C2C شرکت تداخل می کند. این برای ابررایانه ها طراحی شده است تا اجازه دهد "دانشمندان و محققان برای مقابله با چالش برانگیزترین مشکلات جهان با تسریع برنامه های پیچیده هوش مصنوعی و HPC که ترابایت داده را اجرا می کنند،" NVIDIA نوشت.
GH200 مورد استفاده قرار خواهد گرفت "40+ ابررایانه هوش مصنوعی در مراکز تحقیقاتی جهانی، سازندگان سیستم و ارائه دهندگان ابر،" این شرکت گفت، از جمله از Dell، Eviden، Hewlett Packard Enterprise (HPE)، Lenovo، QCT و Supermicro. در میان آنها، ابررایانههای HPE Cray EX2500 قابل توجه هستند که از چهار GH200 استفاده میکنند و تا دهها هزار گره سوپرچیپ Grace Hopper را مقیاسبندی میکنند.
شاید بزرگترین ابررایانه گریس هاپر ژوپیتر باشد که در تاسیسات یولیخ در آلمان واقع شده و تبدیل به "قدرتمندترین سیستم هوش مصنوعی جهان" هنگامی که در سال ۲۰۲۴ نصب می شود. از معماری خنک کننده مایع استفاده می کند. "با یک ماژول تقویت کننده شامل نزدیک به ۲۴۰۰۰ سوپرتراشه NVIDIA GH200 که با پلتفرم شبکه NVIDIA Quantum-2 InfiniBand به هم متصل شده اند،" با توجه به NVIDIA.
NVIDIA میگوید Jupiter به پیشرفتهای علمی در تعدادی از زمینهها، از جمله پیشبینی آبوهوا و آبوهوا، تولید آب و هوا و شبیهسازی آبوهوا با وضوح بالا با تجسم تعاملی کمک خواهد کرد. همچنین برای کشف دارو، محاسبات کوانتومی و مهندسی صنایع استفاده خواهد شد. بسیاری از این حوزهها از راهحلهای نرمافزاری سفارشی NVIDIA استفاده میکنند که توسعه را آسان میکند، اما گروههای ابررایانه را نیز به سختافزار NVIDIA متکی میکند.
فنآوریهای جدید برای NVIDIA کلیدی خواهند بود، که اکنون بیشتر درآمد خود را از بخشهای هوش مصنوعی و مرکز داده کسب میکند. سه ماهه آخر این شرکت تنها در آن منطقه رکورد ۱۰٫۳۲ میلیارد دلار درآمد (از ۱۳٫۵۱ میلیارد دلار کل درآمد) را تجربه کرد که ۱۷۱ درصد نسبت به سال گذشته افزایش داشت. بدون شک امیدوار است که پردازنده گرافیکی و سوپرتراشه جدید به ادامه این روند کمک کند. همین هفته گذشته، NVIDIA رکورد بنچمارک آموزش هوش مصنوعی خود را شکست از فناوری قدیمیتر H100 استفاده میکند، بنابراین فناوری جدید آن باید به آن کمک کند که این برتری را نسبت به رقبای خود در بخشی که قبلاً بر آن تسلط دارد گسترش دهد.
این مقاله در ابتدا در Engadget در https://www.engadget.com/nvidia-announces-its-next-generation-of-ai-supercomputer-chips-140004095.html?src=rss منتشر شد.
منبع: https://www.engadget.com/nvidia-announces-its-next-generation-of-ai-supercomputer-chips-140004095.html?src=rss