مهندسان ارشد NVIDIA در چهار گفتگو در طول دو روز، نوآوریهای مربوط به محاسبات سریع برای مراکز داده و سیستمهای مدرن در لبه شبکه را شرح خواهند داد.
مایکل دیتی، مدیر معماری با 17 سال تصدی در این شرکت، مشخصات عملکردی جدیدی را برای NVIDIA Jetson AGX Orin، موتوری برای هوش مصنوعی لبه، رباتیک و ماشینهای مستقل پیشرفته ارائه خواهد کرد.
برای حداکثر کارایی، CPU Grace از حافظه LPDDR5X استفاده می کند. این یک ترابایت بر ثانیه از پهنای باند حافظه را فعال می کند در حالی که مصرف برق را برای کل مجموعه تا 500 وات حفظ می کند.
یک پیوند، کاربردهای فراوان
همه تراشه های جدید از پشته نرم افزار NVIDIA پشتیبانی می کنند که بیش از 700 برنامه را شتاب می دهد و توسط 2.5 میلیون توسعه دهنده استفاده می شود.
Choquette، یکی از طراحان اصلی تراشه در کنسول Nintendo64 در اوایل کار خود، همچنین تکنیکهای محاسباتی موازی زیربنای برخی از پیشرفتهای هاپر را شرح خواهد داد.
در یک رویداد مجازی Hot Chips، گردهمایی سالانه معماران پردازنده و سیستم، آنها اعداد عملکرد و سایر جزئیات فنی اولین CPU سرور انویدیا، پردازنده گرافیکی Hopper، آخرین نسخه تراشه اتصال NVSwitch و NVIDIA Jetson Orin را فاش خواهند کرد. سیستم روی ماژول (SoM).
به طور خاص، این گفتگوها فلسفه طراحی نوآوری در سراسر پشته کامل تراشه ها، سیستم ها و نرم افزارها را نشان می دهد که در آن GPU ها، CPU ها و DPU ها به عنوان پردازنده های همتا عمل می کنند. آنها با هم پلتفرمی ایجاد می کنند که در حال حاضر هوش مصنوعی، تجزیه و تحلیل داده ها و کارهای محاسباتی با کارایی بالا را در ارائه دهندگان خدمات ابری، مراکز ابررایانه، مراکز داده شرکتی و سیستم های مستقل اجرا می کند.
داخل CPU اول سرور NVIDIA
این سوئیچ شامل موتورهایی است که با استفاده از پروتکل کاهش تجمع سلسله مراتبی مقیاس پذیر NVIDIA به انتقال داده سرعت می بخشد. SHARP یک قابلیت محاسباتی درون شبکه ای است که در شبکه های کوانتومی اینفینی باند NVIDIA معرفی شد. این می تواند توان عملیاتی داده را در برنامه های کاربردی هوش مصنوعی مرتبط با ارتباطات دو برابر کند.
موتور ترانسفورماتور جدید هاپر و هسته های تنسور ارتقا یافته سرعت 30 برابری را در مقایسه با نسل قبلی استنتاج هوش مصنوعی با بزرگترین مدل های شبکه عصبی جهان ارائه می دهند. و از اولین سیستم حافظه HBM3 در جهان برای ارائه پهنای باند عظیم 3 ترابایتی استفاده می کند که بزرگترین افزایش نسلی NVIDIA تا کنون است.
این دستگاه 12 هسته Arm Cortex-A78 و یک پردازنده گرافیکی معماری NVIDIA Ampere را برای انجام تا 275 تریلیون عملیات در ثانیه در کارهای استنتاج هوش مصنوعی ادغام می کند. این عملکرد تا 8 برابر بیشتر با بهره وری انرژی 2.3 برابر بیشتر از نسل قبلی است.
NVLink-C2C همچنین تراشههای Grace CPU و Hopper GPU را بهعنوان همتای اشتراکگذاری حافظه در NVIDIA Grace Hopper Superchip پیوند میدهد که حداکثر شتاب را برای کارهای تشنه عملکرد مانند آموزش هوش مصنوعی ارائه میکند.
«پایان بیانیه مطبوعاتی»