在接受 The Next Platform 采访时,AMD 数据中心解决方案集团执行副总裁兼总经理 Forrest Norrod 表示,公司正在认真考虑构建最大规模的 AI GPU 集群。
注:AI 训练集群通常由数千片 GPU 构建,通过高速互连连接服务器机架。而 AMD 正研究的 120 万片无疑在数量级上指数倍增长,这必然带来延迟、功耗、硬件故障等多方面的挑战。
全球最强超级计算机 Frontier “只有”37888 片 GPU,因此 AMD 勾勒的 AI 集群是当前最强超级计算机数量的 30 倍。
相关教程
2024-08-03
2023-12-08
2023-12-15
2024-02-26
2023-12-21
2023-11-09
2023-09-18
2023-12-07
2024-10-15
2024-06-05
2024-11-14
2024-11-14
2024-11-13
2024-11-13
2024-11-12
2024-11-09
copyright © 2012-2024 保成网 m.zsbaocheng.net 版权声明