当前位置: 保成网 >  新闻资讯 >  NVIDIA Blackwell AI服务器订单量25%,超微获得巨额订单

NVIDIA Blackwell AI服务器订单量25%,超微获得巨额订单

更新时间:2024-05-21 01:41:51作者:zsbaocheng
在人工智能计算领域风头正盛的超微计算机公司(Supermicro Computer)收到了基于NVIDIA Blackwell 人工智能 GPU 的巨额服务器机架订单。超微计算机希望通过供应链的进步与富士康等公司竞争,加速 NVIDIA Blackwell AI 服务器订单的交付。NVIDIA Blackwell AI服务器订单量25%,超微获得巨额订单

在人工智能的热潮中,SMCI(超微计算机公司)在相当长的一段时间里都是市场的头条新闻。该公司不仅股价表现优异,同比增长 182%,而且还成功地与英伟达(NVIDIA)建立了合作关系,成为市场的焦点。SMCI 专注于专为人工智能工作负载设计的高性能服务器和存储系统,在过去几个季度里,订单大量涌入。

现在,该公司正寻求将其业务扩展到更先进的NVIDIA Blackwell AI GPU 架构,因为有报道称超微计算机公司已经收到了以 Blackwell 为核心的 AI 服务器机架的巨额订单。台湾《经济日报》报道称,超微计算机公司(SMCI)准备出货 25% 的英伟达(NVIDIA)基于 GB200 的 Blackwell AI 服务器,总量将达到 10000 台以上。这一次,NVIDIA似乎赋予了 SMCI 更多的责任,如果进展顺利,最终将转化为巨大的经济效益。这些系统包括:

NVIDIA HGX B100 8-GPU 和 HGX B200 8-GPU 系统

包含 10 个 GPU 的 5U/4U PCIe GPU 系统

SuperBlade 在 8U 机柜中最多可配备 20 个 B100 GPU,在 6U 机柜中最多可配备 10 个 B100 GPU

2U Hyper 最多可配备 3 个 B100 GPU

配备最多 4 个 B100 GPU 的 Supermicro 2U x86 MGX 系统

NVIDIA Blackwell AI服务器订单量25%,超微获得巨额订单

为了与富士康和广达等巨头竞争,SMCI 决定积极拓展供应链,将 Argosy Research 和 Auras Technology 等公司纳入其中。自今年年初以来,该公司已经积累了NVIDIA公司的Blackwell GB200 AI GPU,以确保供应链流程顺畅,最终保证在竞争中占据优势。此外,超微计算机公司已经在水冷要件方面进行了投资,据说这对较新的 Blackwell AI 服务器至关重要。以下是超微服务器阵容的部分特点:

超微公司的NVIDIA HGX B200 8GPU 风冷和液冷系统可实现最高的生成式人工智能训练性能。该系统采用 8 个英伟达 Blackwell GPU,通过第五代 NVLink 与 1.5TB 高带宽内存池(速度达 60TB/s)连接,以加快人工智能训练工作负载的速度。

超微最畅销的人工智能训练系统--配备NVIDIA HGX H100/H200 8-GPU 的 4U/8U 系统,将支持英伟达即将推出的 HGX B100 8-GPU。

超微机架级解决方案采用 GB200 Superchip 系统作为服务器节点,每个节点配备 2 个 Grace CPU 和 4 个 NVIDIA Blackwell GPU。超微的直接到芯片液冷技术最大限度地提高了密度,在一个 44U ORV3 机架上可安装 72 个 GB200 192GB GPU(每个 GPU 的 TDP 为 1200W)。

由此看来,SMCI 希望这次以更积极的方式回归,通过与NVIDIA的密切关系,只要他们能保持供应链和产品质量,就可以继续保持现有的市场地位。

相关教程

copyright ©  2012-2024 保成网 m.zsbaocheng.net 版权声明