انویدیا ابررایانه DGX GH200 را با 256 سوپرتراشه گریس هاپر معرفی کرد.

DGX GH200 اولین ابررایانه ای است که Superchips Grace Hopper را با NVIDIA NVLink Switch System جفت می کند، یک اتصال جدید که همه GPU های موجود در یک سیستم DGX GH200 را قادر می سازد تا با هم کار کنند. سیستم نسل قبلی تنها هشت پردازنده گرافیکی را ارائه می‌کرد که می‌توانستند با NVLink به‌عنوان یک GPU بدون به خطر انداختن عملکرد ترکیب شوند.

الکسیس بیورلین، معاون زیرساخت، سیستم‌های هوش مصنوعی و پلت‌فرم‌های شتاب‌دهی متا گفت: «با بزرگ‌تر شدن مدل‌های هوش مصنوعی، به زیرساخت‌های قدرتمندی نیاز دارند که بتواند تقاضاهای روزافزون را برآورده کند. طراحی گریس هاپر NVIDIA به نظر می رسد توانایی کشف رویکردهای جدید برای حل بزرگترین چالش ها را برای محققان فراهم کند.

گیریش بابلانی، معاون شرکت زیرساخت Azure در مایکروسافت، گفت: «آموزش مدل‌های بزرگ هوش مصنوعی به طور سنتی یک کار وقت‌بر و منابع است. پتانسیل DGX GH200 برای کار با مجموعه داده‌های اندازه ترابایت به توسعه دهندگان این امکان را می‌دهد که تحقیقات پیشرفته‌تری را در مقیاس بزرگ‌تر و سرعت‌های شتاب‌دهنده انجام دهند.»

همچنین NVIDIA AI Enterprise، لایه نرم افزاری پلتفرم NVIDIA AI نیز گنجانده شده است. این بیش از 100 چارچوب، مدل های از پیش آموزش دیده و ابزار توسعه را برای ساده سازی توسعه و استقرار هوش مصنوعی تولیدی از جمله هوش مصنوعی مولد، بینایی کامپیوتر، هوش مصنوعی گفتاری و موارد دیگر ارائه می دهد.

COMPUTEX—NVIDIA امروز کلاس جدیدی از ابررایانه‌های هوش مصنوعی با حافظه بزرگ را معرفی کرد – یک ابررایانه NVIDIA DGX™ با سوپرتراشه‌های NVIDIA® GH200 Grace Hopper و NVIDIA NVLink® Switch System – که برای ایجاد امکان توسعه مدل‌های غول‌پیکر و نسل بعدی برای تولید محصولات ایجاد شده است. برنامه های کاربردی زبان هوش مصنوعی، سیستم های توصیه گر و حجم کاری تجزیه و تحلیل داده ها.

جنسن هوانگ، بنیانگذار و مدیر عامل NVIDIA، گفت: هوش مصنوعی مولد، مدل‌های زبان بزرگ و سیستم‌های توصیه‌کننده موتورهای دیجیتال اقتصاد مدرن هستند. ابررایانه‌های هوش مصنوعی DGX GH200 پیشرفته‌ترین فناوری‌های محاسباتی و شبکه‌ای سریع NVIDIA را برای گسترش مرزهای هوش مصنوعی یکپارچه می‌کنند.

معماری DGX GH200 پهنای باند NVLink 48 برابر بیشتر از نسل قبلی ارائه می‌کند و قدرت یک ابر رایانه عظیم هوش مصنوعی را با سادگی برنامه‌نویسی یک GPU ارائه می‌کند.

این ابررایانه با نام NVIDIA Helios دارای چهار سیستم DGX GH200 است. هر کدام با شبکه NVIDIA Quantum-2 InfiniBand متصل خواهند شد تا ظرفیت داده را برای آموزش مدل‌های بزرگ هوش مصنوعی افزایش دهند. Helios شامل 1024 سوپرچیپ گریس هاپر خواهد بود و انتظار می رود تا پایان سال به صورت آنلاین عرضه شود.

کلاس جدید ابررایانه هوش مصنوعی، 256 سوپرتراشه گریس هاپر را به پردازنده گرافیکی عظیم، 1-Exaflop، 144 ترابایتی برای مدل های غول پیکر متصل می کند که هوش مصنوعی مولد، سیستم های توصیه کننده، پردازش داده ها را تامین می کند.

یک ابزار تحقیقاتی جدید برای پیشگامان هوش مصنوعی
گوگل کلود، متا و مایکروسافت جزو اولین کسانی هستند که انتظار می رود به DGX GH200 دسترسی پیدا کنند تا قابلیت های آن را برای بارهای کاری مولد هوش مصنوعی کشف کنند. انویدیا همچنین قصد دارد طراحی DGX GH200 را به عنوان یک طرح اولیه برای ارائه دهندگان خدمات ابری و سایر hyperscalers ارائه دهد تا بتوانند آن را برای زیرساخت خود سفارشی کنند.

ابررایانه هلیوس انویدیا جدید برای پیشرفت تحقیق و توسعه
انویدیا در حال ساخت ابررایانه هوش مصنوعی مبتنی بر DGX GH200 خود است تا کار محققان و تیم های توسعه خود را تقویت کند.

Mark Lohmeyer، نایب رئیس Compute در Google Cloud می‌گوید: «ساخت مدل‌های مولد پیشرفته نیازمند رویکردهای نوآورانه برای زیرساخت‌های هوش مصنوعی است. مقیاس جدید NVLink و حافظه مشترک سوپرتراشه‌های گریس هاپر، گلوگاه‌های کلیدی در هوش مصنوعی در مقیاس بزرگ را برطرف می‌کند و ما مشتاقانه منتظر بررسی قابلیت‌های آن برای Google Cloud و ابتکارات هوش مصنوعی مولد خود هستیم.

فضای حافظه مشترک عظیم NVIDIA DGX GH200 از فناوری اتصال NVLink با سیستم سوئیچ NVLink برای ترکیب 256 سوپرتراشه GH200 استفاده می کند و به آنها اجازه می دهد به عنوان یک GPU واحد عمل کنند. این عملکرد 1 اگزافلاپ و 144 ترابایت حافظه مشترک را ارائه می دهد – تقریباً 500 برابر بیشتر از نسل قبلی NVIDIA DGX A100 که در سال 2020 معرفی شد.

«پایان بیانیه مطبوعاتی»





منبع


انویدیا ابرکامپیوتر DGX GH200 AI را معرفی کرد

فناوری NVIDIA NVLink هوش مصنوعی را در مقیاس گسترش می دهد
سوپرتراشه‌های GH200 نیاز به اتصال سنتی CPU به GPU PCIe را با ترکیب یک CPU مبتنی بر Arm NVIDIA Grace™ با یک پردازنده گرافیکی NVIDIA H100 Tensor Core در همان بسته، با استفاده از اتصالات تراشه NVIDIA NVLink-C2C برطرف می‌کنند. این امر پهنای باند بین GPU و CPU را در مقایسه با آخرین فناوری PCIe 7 برابر افزایش می‌دهد، مصرف برق را بیش از 5 برابر کاهش می‌دهد و بلوک ساختاری GPU معماری Hopper 600 گیگابایتی را برای ابررایانه‌های DGX GH200 فراهم می‌کند.

دسترسی
انتظار می رود ابر رایانه های NVIDIA DGX GH200 تا پایان سال در دسترس باشند.


کاملا یکپارچه و هدفمند برای مدل های غول پیکر ساخته شده است
ابررایانه‌های DGX GH200 شامل نرم‌افزار NVIDIA می‌شوند تا راه‌حلی کامل و کلیدی برای بزرگ‌ترین حجم کاری هوش مصنوعی و تجزیه و تحلیل داده‌ها ارائه کنند. نرم‌افزار NVIDIA Base Command مدیریت گردش کار هوش مصنوعی، مدیریت کلاستر در سطح سازمانی، کتابخانه‌هایی که محاسبات، ذخیره‌سازی و زیرساخت‌های شبکه را تسریع می‌کنند و نرم‌افزار سیستم بهینه‌سازی شده برای اجرای بارهای کاری هوش مصنوعی را ارائه می‌دهد.

محمدصادق مجدی

majdi.ir

محمدصادق مجدی هستم عاشق سخت افزار کامپیوتر