ابررایانه هلیوس انویدیا جدید برای پیشرفت تحقیق و توسعه
انویدیا در حال ساخت ابررایانه هوش مصنوعی مبتنی بر DGX GH200 خود است تا کار محققان و تیم های توسعه خود را تقویت کند.
این ابررایانه با نام NVIDIA Helios دارای چهار سیستم DGX GH200 است. هر کدام با شبکه NVIDIA Quantum-2 InfiniBand متصل خواهند شد تا ظرفیت داده را برای آموزش مدلهای بزرگ هوش مصنوعی افزایش دهند. Helios شامل 1024 سوپرچیپ گریس هاپر خواهد بود و انتظار می رود تا پایان سال به صورت آنلاین عرضه شود.
فضای حافظه مشترک عظیم NVIDIA DGX GH200 از فناوری اتصال NVLink با سیستم سوئیچ NVLink برای ترکیب 256 سوپرتراشه GH200 استفاده می کند و به آنها اجازه می دهد به عنوان یک GPU واحد عمل کنند. این عملکرد 1 اگزافلاپ و 144 ترابایت حافظه مشترک را ارائه می دهد – تقریباً 500 برابر بیشتر از نسل قبلی NVIDIA DGX A100 که در سال 2020 معرفی شد.
کاملا یکپارچه و هدفمند برای مدل های غول پیکر ساخته شده است
ابررایانههای DGX GH200 شامل نرمافزار NVIDIA میشوند تا راهحلی کامل و کلیدی برای بزرگترین حجم کاری هوش مصنوعی و تجزیه و تحلیل دادهها ارائه کنند. نرمافزار NVIDIA Base Command مدیریت گردش کار هوش مصنوعی، مدیریت کلاستر در سطح سازمانی، کتابخانههایی که محاسبات، ذخیرهسازی و زیرساختهای شبکه را تسریع میکنند و نرمافزار سیستم بهینهسازی شده برای اجرای بارهای کاری هوش مصنوعی را ارائه میدهد.
COMPUTEX—NVIDIA امروز کلاس جدیدی از ابررایانههای هوش مصنوعی با حافظه بزرگ را معرفی کرد – یک ابررایانه NVIDIA DGX™ با سوپرتراشههای NVIDIA® GH200 Grace Hopper و NVIDIA NVLink® Switch System – که برای ایجاد امکان توسعه مدلهای غولپیکر و نسل بعدی برای تولید محصولات ایجاد شده است. برنامه های کاربردی زبان هوش مصنوعی، سیستم های توصیه گر و حجم کاری تجزیه و تحلیل داده ها.
دسترسی
انتظار می رود ابر رایانه های NVIDIA DGX GH200 تا پایان سال در دسترس باشند.
انویدیا ابرکامپیوتر DGX GH200 AI را معرفی کرد
معماری DGX GH200 پهنای باند NVLink 48 برابر بیشتر از نسل قبلی ارائه میکند و قدرت یک ابر رایانه عظیم هوش مصنوعی را با سادگی برنامهنویسی یک GPU ارائه میکند.
یک ابزار تحقیقاتی جدید برای پیشگامان هوش مصنوعی
گوگل کلود، متا و مایکروسافت جزو اولین کسانی هستند که انتظار می رود به DGX GH200 دسترسی پیدا کنند تا قابلیت های آن را برای بارهای کاری مولد هوش مصنوعی کشف کنند. انویدیا همچنین قصد دارد طراحی DGX GH200 را به عنوان یک طرح اولیه برای ارائه دهندگان خدمات ابری و سایر hyperscalers ارائه دهد تا بتوانند آن را برای زیرساخت خود سفارشی کنند.
گیریش بابلانی، معاون شرکت زیرساخت Azure در مایکروسافت، گفت: «آموزش مدلهای بزرگ هوش مصنوعی به طور سنتی یک کار وقتبر و منابع است. پتانسیل DGX GH200 برای کار با مجموعه دادههای اندازه ترابایت به توسعه دهندگان این امکان را میدهد که تحقیقات پیشرفتهتری را در مقیاس بزرگتر و سرعتهای شتابدهنده انجام دهند.»
جنسن هوانگ، بنیانگذار و مدیر عامل NVIDIA، گفت: هوش مصنوعی مولد، مدلهای زبان بزرگ و سیستمهای توصیهکننده موتورهای دیجیتال اقتصاد مدرن هستند. ابررایانههای هوش مصنوعی DGX GH200 پیشرفتهترین فناوریهای محاسباتی و شبکهای سریع NVIDIA را برای گسترش مرزهای هوش مصنوعی یکپارچه میکنند.
کلاس جدید ابررایانه هوش مصنوعی، 256 سوپرتراشه گریس هاپر را به پردازنده گرافیکی عظیم، 1-Exaflop، 144 ترابایتی برای مدل های غول پیکر متصل می کند که هوش مصنوعی مولد، سیستم های توصیه کننده، پردازش داده ها را تامین می کند.
DGX GH200 اولین ابررایانه ای است که Superchips Grace Hopper را با NVIDIA NVLink Switch System جفت می کند، یک اتصال جدید که همه GPU های موجود در یک سیستم DGX GH200 را قادر می سازد تا با هم کار کنند. سیستم نسل قبلی تنها هشت پردازنده گرافیکی را ارائه میکرد که میتوانستند با NVLink بهعنوان یک GPU بدون به خطر انداختن عملکرد ترکیب شوند.
الکسیس بیورلین، معاون زیرساخت، سیستمهای هوش مصنوعی و پلتفرمهای شتابدهی متا گفت: «با بزرگتر شدن مدلهای هوش مصنوعی، به زیرساختهای قدرتمندی نیاز دارند که بتواند تقاضاهای روزافزون را برآورده کند. طراحی گریس هاپر NVIDIA به نظر می رسد توانایی کشف رویکردهای جدید برای حل بزرگترین چالش ها را برای محققان فراهم کند.
فناوری NVIDIA NVLink هوش مصنوعی را در مقیاس گسترش می دهد
سوپرتراشههای GH200 نیاز به اتصال سنتی CPU به GPU PCIe را با ترکیب یک CPU مبتنی بر Arm NVIDIA Grace™ با یک پردازنده گرافیکی NVIDIA H100 Tensor Core در همان بسته، با استفاده از اتصالات تراشه NVIDIA NVLink-C2C برطرف میکنند. این امر پهنای باند بین GPU و CPU را در مقایسه با آخرین فناوری PCIe 7 برابر افزایش میدهد، مصرف برق را بیش از 5 برابر کاهش میدهد و بلوک ساختاری GPU معماری Hopper 600 گیگابایتی را برای ابررایانههای DGX GH200 فراهم میکند.
Mark Lohmeyer، نایب رئیس Compute در Google Cloud میگوید: «ساخت مدلهای مولد پیشرفته نیازمند رویکردهای نوآورانه برای زیرساختهای هوش مصنوعی است. مقیاس جدید NVLink و حافظه مشترک سوپرتراشههای گریس هاپر، گلوگاههای کلیدی در هوش مصنوعی در مقیاس بزرگ را برطرف میکند و ما مشتاقانه منتظر بررسی قابلیتهای آن برای Google Cloud و ابتکارات هوش مصنوعی مولد خود هستیم.
«پایان بیانیه مطبوعاتی»
همچنین NVIDIA AI Enterprise، لایه نرم افزاری پلتفرم NVIDIA AI نیز گنجانده شده است. این بیش از 100 چارچوب، مدل های از پیش آموزش دیده و ابزار توسعه را برای ساده سازی توسعه و استقرار هوش مصنوعی تولیدی از جمله هوش مصنوعی مولد، بینایی کامپیوتر، هوش مصنوعی گفتاری و موارد دیگر ارائه می دهد.