انویدیا نسل بعدی تراشه های ابررایانه هوش مصنوعی خود را معرفی کرد

انویدیا نسل بعدی تراشه‌های ابررایانه هوش مصنوعی خود را راه‌اندازی کرده است که احتمالاً نقش مهمی در پیشرفت‌های آینده در یادگیری عمیق و مدل‌های زبان بزرگ (LLM) خواهد داشت. GPT-4 OpenAI، این شرکت اعلام کرد. این فناوری نشان‌دهنده یک جهش قابل توجه در نسل گذشته است و آماده استفاده در مراکز داده و ابررایانه‌ها – کار بر روی کارهایی مانند پیش‌بینی آب و هوا و آب و هوا، کشف دارو، محاسبات کوانتومی و موارد دیگر است.

محصول کلیدی پردازنده گرافیکی HGX H200 مبتنی بر NVIDIA است "هاپر" معماری، جایگزینی برای GPU محبوب H100. این اولین تراشه این شرکت است که از حافظه HBM3e استفاده می‌کند که سریع‌تر و ظرفیت بیشتری دارد، بنابراین برای مدل‌های زبان بزرگ مناسب‌تر است. "NVIDIA H200 با HBM3e 141 گیگابایت حافظه با سرعت ۴٫۸ ترابایت در ثانیه ارائه می‌کند که تقریباً دو برابر ظرفیت و ۲٫۴ برابر پهنای باند بیشتر در مقایسه با مدل قبلی خود NVIDIA A100 است." شرکت نوشت

از نظر مزایای هوش مصنوعی، انویدیا می گوید HGX H200 سرعت استنتاج را در Llama 2، یک LLM با ۷۰ میلیارد پارامتر، در مقایسه با H100 دو برابر می کند. این در پیکربندی‌های ۴ و ۸ جهته در دسترس خواهد بود که با نرم‌افزار و سخت‌افزار در سیستم‌های H100 سازگار است. این در هر نوع مرکز داده (در محل، ابر، ترکیبی-ابر و لبه) کار خواهد کرد و توسط خدمات وب آمازون، Google Cloud، Microsoft Azure و Oracle Cloud Infrastructure و سایر موارد مستقر می شود. قرار است در سه ماهه دوم سال ۲۰۲۴ وارد بازار شود.

NVIDIA

محصول کلیدی دیگر NVIDIA GH200 Grace Hopper است "سوپرچیپ" که با GPU HGX H200 و CPU مبتنی بر Arm NVIDIA Grace با استفاده از پیوند NVLink-C2C شرکت تداخل می کند. این برای ابررایانه ها طراحی شده است تا اجازه دهد "دانشمندان و محققان برای مقابله با چالش برانگیزترین مشکلات جهان با تسریع برنامه های پیچیده هوش مصنوعی و HPC که ترابایت داده را اجرا می کنند،" NVIDIA نوشت.

GH200 مورد استفاده قرار خواهد گرفت "40+ ابررایانه هوش مصنوعی در مراکز تحقیقاتی جهانی، سازندگان سیستم و ارائه دهندگان ابر،" این شرکت گفت، از جمله از Dell، Eviden، Hewlett Packard Enterprise (HPE)، Lenovo، QCT و Supermicro. در میان آن‌ها، ابررایانه‌های HPE Cray EX2500 قابل توجه هستند که از چهار GH200 استفاده می‌کنند و تا ده‌ها هزار گره سوپرچیپ Grace Hopper را مقیاس‌بندی می‌کنند.

انویدیا نسل بعدی تراشه های ابررایانه هوش مصنوعی خود را معرفی کرد
NVIDIA

شاید بزرگترین ابررایانه گریس هاپر ژوپیتر باشد که در تاسیسات یولیخ در آلمان واقع شده و تبدیل به "قدرتمندترین سیستم هوش مصنوعی جهان" هنگامی که در سال ۲۰۲۴ نصب می شود. از معماری خنک کننده مایع استفاده می کند. "با یک ماژول تقویت کننده شامل نزدیک به ۲۴۰۰۰ سوپرتراشه NVIDIA GH200 که با پلتفرم شبکه NVIDIA Quantum-2 InfiniBand به هم متصل شده اند،" با توجه به NVIDIA.

NVIDIA می‌گوید Jupiter به پیشرفت‌های علمی در تعدادی از زمینه‌ها، از جمله پیش‌بینی آب‌وهوا و آب‌وهوا، تولید آب و هوا و شبیه‌سازی آب‌وهوا با وضوح بالا با تجسم تعاملی کمک خواهد کرد. همچنین برای کشف دارو، محاسبات کوانتومی و مهندسی صنایع استفاده خواهد شد. بسیاری از این حوزه‌ها از راه‌حل‌های نرم‌افزاری سفارشی NVIDIA استفاده می‌کنند که توسعه را آسان می‌کند، اما گروه‌های ابررایانه را نیز به سخت‌افزار NVIDIA متکی می‌کند.

فن‌آوری‌های جدید برای NVIDIA کلیدی خواهند بود، که اکنون بیشتر درآمد خود را از بخش‌های هوش مصنوعی و مرکز داده کسب می‌کند. سه ماهه آخر این شرکت تنها در آن منطقه رکورد ۱۰٫۳۲ میلیارد دلار درآمد (از ۱۳٫۵۱ میلیارد دلار کل درآمد) را تجربه کرد که ۱۷۱ درصد نسبت به سال گذشته افزایش داشت. بدون شک امیدوار است که پردازنده گرافیکی و سوپرتراشه جدید به ادامه این روند کمک کند. همین هفته گذشته، NVIDIA رکورد بنچمارک آموزش هوش مصنوعی خود را شکست از فناوری قدیمی‌تر H100 استفاده می‌کند، بنابراین فناوری جدید آن باید به آن کمک کند که این برتری را نسبت به رقبای خود در بخشی که قبلاً بر آن تسلط دارد گسترش دهد.

این مقاله در ابتدا در Engadget در https://www.engadget.com/nvidia-announces-its-next-generation-of-ai-supercomputer-chips-140004095.html?src=rss منتشر شد.


منبع: https://www.engadget.com/nvidia-announces-its-next-generation-of-ai-supercomputer-chips-140004095.html?src=rss

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *