NVIDIA 产品管理与营销部资深总监 Paresh Kharya 表示:"Supermicro 搭载 NVIDIA A100 的系统可快速扩充至数千张 GPU,或可使用最新的多实例 GPU 技术,将每张 A100 GPU 分割成 7 张独立的 GPU 实例,以执行不同的工作。支持 TensorFloat 32 的 NVIDIA A100 Tensor Core GPU 可提供比前一代高 20 倍的运算容量,无需变更任何程序代码。" Supermicro 搭载 HGX A100 4-GPU 的进阶 2U 设计 此 2U 系统搭载 NVIDIA HGX A100 4-GPU 主板,并采用 Supermicro 的进阶散热片设计,在满载下仍可维持最佳的系统温度,且外型规格精简轻巧。系统可通过 NVIDIA NVLink® 执行高 GPU 点对点通讯,可安装最高 8TB 的 DDR4 3200Mhz 系统内存,具备 5 个支持 GPUDirect RDMA 的 PCI-E 4.0 I/O 插槽,还有 4 个支持 GPUDirect Storage 功能的可热插入 NVMe。 搭载 HGX A100 8-GPU 的高密度、多功能 4U 设计 最新 4U GPU 系统搭载 NVIDIA HGX A100 8-GPU 主板,具备最多 6 个 NVMe U.2 和 2 个 NVMe M.2、10 个 PCI-E 4.0 x16 插槽,并采用 Supermicro 独家的 AIOM,能通过 GPUDirect RDMA、GPUDirect Storage 及 InfiniBand 上的 NVMe-oF 等最新技术堆栈,支持系统之间的高效 8-GPU 通讯与数据流。系统使用 NVIDIA NVLink 和 NVSwitch 技术,适合用于大规模的深度学习训练、研究或国家实验室专用的神经网络模型应用、超级运算丛集和高效能计算云端服务。 搭载 20 张 A100 PCI-E GPU 的超高密度、节能 8U SuperBlade 这款业界最高密度的 GPU 刀锋服务器装载在 Supermicro 的 8U SuperBlade 机壳内,可支持最多 20 个节点和 40 张 GPU,每节点两张单宽 GPU,或每节点一张 NVIDIA Tensor Core A100 PCI-E GPU。在 8U 尺寸内装入 20 张 NVIDIA A100 GPU,进一步提升计算效能密度,且尺寸更小巧,能为客户降低总体拥有成本(TCO)。为支持 GPU 优化的配置并维持高需求 AI 应用程序所需的顶尖效能和传输量,SuperBlade 提供 100% 不阻塞的 HDR 200Gb/s InfiniBand 网络基础架构,可加速深度学习并支持实时分析和决策。SuperBlade 同时具备高密度、可靠度和可升级性,为企业应用程序提供 AI 服务的完美建构基础。 业界最多样化的 GPU 加速系统产品组合 Supermicro 持续支持各种规格的 NVIDIA 高阶 GPU,专为客户的独特使用案例场景和需求进行优化。1U GPU 系统可通过 NVLink 容纳最多 4 张 NVIDIA GPU,已通过包括 NEBS 第 3 级认证、5G/边缘就绪的 SYS-1029GQ 等认证。Supermicro 的 SYS-2029GP-TR 等 2U GPU 系统支持最多 6 张 NVIDIA V100 GPU,可在同一系统内容纳双 PCI-E 控制源(Dual PCI-E Root Complex)功能。最后,如 SYS-9029GP-TNVRT 等 10U GPU 服务器支持最多 16 张 V100 SXM3 GPU,并可搭载内建 AI 加速能力的双 Intel Xeon 可扩充处理器。 弹性的解决方案系列采用 NVIDIA GPU 和 NVIDIA NGC™ 生态系统提供的 GPU 软件,能为各种工作提供适合的建构基础,满足不同产业组织的需求,适用于开发模型的 AI 推论、高效能计算到高阶训练等应用。 敬请通过 LinkedIn、 Twitter 和 Facebook关注 Supermicro,获取最新动态与公告。 免责声明:市场有风险,选择需谨慎!此文仅供参考,不作买卖依据。 |
免责声明:本网站内容由网友自行在页面发布,上传者应自行负责所上传内容涉及的法律责任,本网站对内容真实性、版权等概不负责,亦不承担任何法律责任。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,并请自行核实相关内容。本站不承担此类作品侵权行为的直接责任及连带责任。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。