NVIDIA جزئیات جدیدی را در مورد Hopper GPU و Grace CPU در Hot Chips افشا می کند

مهندسان ارشد NVIDIA در چهار گفتگو در طول دو روز، نوآوری‌های مربوط به محاسبات سریع برای مراکز داده و سیستم‌های مدرن در لبه شبکه را شرح خواهند داد.

مایکل دیتی، مدیر معماری با 17 سال تصدی در این شرکت، مشخصات عملکردی جدیدی را برای NVIDIA Jetson AGX Orin، موتوری برای هوش مصنوعی لبه، رباتیک و ماشین‌های مستقل پیشرفته ارائه خواهد کرد.

برای حداکثر کارایی، CPU Grace از حافظه LPDDR5X استفاده می کند. این یک ترابایت بر ثانیه از پهنای باند حافظه را فعال می کند در حالی که مصرف برق را برای کل مجموعه تا 500 وات حفظ می کند.

یک پیوند، کاربردهای فراوان

همه تراشه های جدید از پشته نرم افزار NVIDIA پشتیبانی می کنند که بیش از 700 برنامه را شتاب می دهد و توسط 2.5 میلیون توسعه دهنده استفاده می شود.

Choquette، یکی از طراحان اصلی تراشه در کنسول Nintendo64 در اوایل کار خود، همچنین تکنیک‌های محاسباتی موازی زیربنای برخی از پیشرفت‌های هاپر را شرح خواهد داد.

در یک رویداد مجازی Hot Chips، گردهمایی سالانه معماران پردازنده و سیستم، آنها اعداد عملکرد و سایر جزئیات فنی اولین CPU سرور انویدیا، پردازنده گرافیکی Hopper، آخرین نسخه تراشه اتصال NVSwitch و NVIDIA Jetson Orin را فاش خواهند کرد. سیستم روی ماژول (SoM).

به طور خاص، این گفتگوها فلسفه طراحی نوآوری در سراسر پشته کامل تراشه ها، سیستم ها و نرم افزارها را نشان می دهد که در آن GPU ها، CPU ها و DPU ها به عنوان پردازنده های همتا عمل می کنند. آنها با هم پلتفرمی ایجاد می کنند که در حال حاضر هوش مصنوعی، تجزیه و تحلیل داده ها و کارهای محاسباتی با کارایی بالا را در ارائه دهندگان خدمات ابری، مراکز ابررایانه، مراکز داده شرکتی و سیستم های مستقل اجرا می کند.

داخل CPU اول سرور NVIDIA

این سوئیچ شامل موتورهایی است که با استفاده از پروتکل کاهش تجمع سلسله مراتبی مقیاس پذیر NVIDIA به انتقال داده سرعت می بخشد. SHARP یک قابلیت محاسباتی درون شبکه ای است که در شبکه های کوانتومی اینفینی باند NVIDIA معرفی شد. این می تواند توان عملیاتی داده را در برنامه های کاربردی هوش مصنوعی مرتبط با ارتباطات دو برابر کند.

موتور ترانسفورماتور جدید هاپر و هسته های تنسور ارتقا یافته سرعت 30 برابری را در مقایسه با نسل قبلی استنتاج هوش مصنوعی با بزرگترین مدل های شبکه عصبی جهان ارائه می دهند. و از اولین سیستم حافظه HBM3 در جهان برای ارائه پهنای باند عظیم 3 ترابایتی استفاده می کند که بزرگترین افزایش نسلی NVIDIA تا کنون است.

این دستگاه 12 هسته Arm Cortex-A78 و یک پردازنده گرافیکی معماری NVIDIA Ampere را برای انجام تا 275 تریلیون عملیات در ثانیه در کارهای استنتاج هوش مصنوعی ادغام می کند. این عملکرد تا 8 برابر بیشتر با بهره وری انرژی 2.3 برابر بیشتر از نسل قبلی است.

NVLink-C2C همچنین تراشه‌های Grace CPU و Hopper GPU را به‌عنوان همتای اشتراک‌گذاری حافظه در NVIDIA Grace Hopper Superchip پیوند می‌دهد که حداکثر شتاب را برای کارهای تشنه عملکرد مانند آموزش هوش مصنوعی ارائه می‌کند.

«پایان بیانیه مطبوعاتی»





منبع

از دیگر ویژگی های جدید:

  • Hopper پشتیبانی مجازی سازی را برای پیکربندی های چند مستاجر و چند کاربر اضافه می کند.
  • دستورالعمل‌های جدید DPX، حلقه‌های تکرارشونده را برای برنامه‌های انتخاب نقشه‌برداری، DNA و آنالیز پروتئین سرعت می‌بخشند.
  • Hopper برای افزایش امنیت با محاسبات محرمانه پشتیبانی می کند.

جک شوکت، مهندس برجسته‌ای که 14 سال در این شرکت سابقه کار دارد، یک تور دقیق از پردازنده گرافیکی NVIDIA H100 Tensor Core، با نام مستعار Hopper، ارائه خواهد کرد.

علاوه بر استفاده از اتصالات جدید برای ارتقاء به ارتفاعات بی سابقه، دارای بسیاری از ویژگی های پیشرفته است که عملکرد، کارایی و امنیت شتاب دهنده را افزایش می دهد.

NVSwitch به کاربران این امکان را می دهد که 32 سیستم NVIDIA DGX H100 را به یک ابررایانه هوش مصنوعی پیوند دهند که اوج عملکرد هوش مصنوعی را ارائه می دهد.

مراکز داده به خوشه‌های انعطاف‌پذیری از پردازنده‌ها، پردازنده‌های گرافیکی و سایر شتاب‌دهنده‌ها نیاز دارند که حافظه‌های عظیمی را به اشتراک بگذارند تا عملکرد کارآمدی در مصرف انرژی را ارائه دهند.

این ارائه‌ها بینش تازه‌ای در مورد چگونگی رسیدن پلتفرم NVIDIA به سطوح جدیدی از عملکرد، کارایی، مقیاس و امنیت ارائه می‌دهند.

اولین معیارهای حافظه برای گریس و گریس هاپر.

بر اساس مدل برنامه نویسی CUDA، شامل ده ها SDK NVIDIA برای بازارهای عمودی مانند خودرو (DRIVE) و مراقبت های بهداشتی (Clara) و همچنین فناوری هایی مانند سیستم های توصیه (Merlin) و AI محاوره ای (Riva) است.

سیستم های NVSwitch ابررایانه های هوش مصنوعی کلاس exaflop را فعال می کنند.

معیارهای عملکرد برای NVIDIA Orin

برای مقیاس‌پذیری در سطح سیستم، NVIDIA NVSwitch جدید چندین سرور را به یک ابررایانه هوش مصنوعی متصل می‌کند. از NVLink استفاده می‌کند، اتصالات با سرعت 900 گیگابایت در ثانیه، بیش از 7 برابر پهنای باند PCIe Gen 5.

منبع: NVIDIA


جدیدترین طراحی‌های تراشه نشان‌دهنده وسعت و عمق نوآوری پلتفرم NVIDIA در هوش مصنوعی، لبه و محاسبات با عملکرد بالا است.

هر کسی می تواند چیپلت های سفارشی را با استفاده از NVLink-C2C بسازد تا به طور منسجم به GPU ها، CPU ها، DPU ها و SoC های NVIDIA متصل شود و این کلاس جدید از محصولات یکپارچه را گسترش دهد. این اتصال از پروتکل های AMBA CHI و CXL که به ترتیب توسط پردازنده های Arm و x86 استفاده می شوند پشتیبانی می کند.

آخرین ماژول تولیدی تا 32 گیگابایت حافظه دارد و بخشی از یک خانواده سازگار است که به کیت‌های توسعه‌دهنده Jetson Nano با اندازه جیبی 5 وات می‌رسد.

پلتفرم هوش مصنوعی NVIDIA از هر سرویس ابری بزرگ و سازنده سیستم در دسترس است.

برای پاسخگویی به این نیاز، جاناتون ایوانز، مهندس برجسته و 15 سال کهنه کار در NVIDIA، NVIDIA NVLink-C2C را شرح می دهد. CPU و GPU را با سرعت 900 گیگابایت در ثانیه با بهره وری انرژی 5 برابر استاندارد فعلی PCIe Gen 5 به هم متصل می کند، به لطف انتقال داده که فقط 1.3 پیکوژول در هر بیت مصرف می کند.


NVIDIA جزئیات جدیدی را در مورد Grace CPU، Hopper GPU، NVLink Switch، Jetson Orin ماژول در Hot Chips به اشتراک می گذارد.

NVLink-C2C دو تراشه CPU را برای ایجاد CPU NVIDIA Grace با 144 هسته Arm Neoverse متصل می کند. این پردازنده ای است که برای حل بزرگترین مشکلات محاسباتی جهان ساخته شده است.

الکساندر ایشی و رایان ولز، هر دو مهندس باسابقه NVIDIA، توضیح خواهند داد که چگونه سوئیچ به کاربران اجازه می‌دهد تا سیستم‌هایی با حداکثر 256 پردازنده گرافیکی بسازند تا با بارهای کاری سخت مانند آموزش مدل‌های هوش مصنوعی که بیش از 1 تریلیون پارامتر دارند، مقابله کنند.

محمدصادق مجدی

majdi.ir

محمدصادق مجدی هستم عاشق سخت افزار کامپیوتر