在接受 The Next Platform 采访时,AMD 数据中心解决方案集团执行副总裁兼总经理 Forrest Norrod 表示,公司正在认真考虑构建最大规模的 AI GPU 集群。
注:AI 训练集群通常由数千片 GPU 构建,通过高速互连连接服务器机架。而 AMD 正研究的 120 万片无疑在数量级上指数倍增长,这必然带来延迟、功耗、硬件故障等多方面的挑战。
全球最强超级计算机 Frontier “只有”37888 片 GPU,因此 AMD 勾勒的 AI 集群是当前最强超级计算机数量的 30 倍。
2024-08-03
2023-12-08
2023-12-15
2024-02-26
2023-12-21
2023-11-09
新闻资讯推荐
win10系统推荐
系统教程推荐