最近在比利时举行的ITF World 2024 大会上,AMD 董事长兼首席执行官苏姿丰因其在行业创新和领导力方面取得的成就而获得了IMEC 创新奖。戈登·摩尔(提出了著名的摩尔定律)和比尔·盖茨这两位熟悉的面孔都获得了该奖项。我获奖了。
来源:tomshardware
在领奖后的致辞中,苏姿丰透露了AMD未来三年的雄心勃勃的计划。 AMD 正在努力实现其计划,即从2025 年到2020 年将计算能源效率提高30 倍。在这个计划之后,或者说到2027年,目标是将能源效率提高100倍(与2020年相比)。
来源:AMD
简单来说,计算能源效率是指计算机在执行计算任务时使用能源的效率。当考虑到不同的计算能力、核心数量和其他性能参数时,计算能效似乎并不那么令人印象深刻,但它实际上是核心性能。体现了功耗管理、工艺技术等技术。
提高计算能效可以让计算机系统更高效地运行。早在2014 年,AMD 就制定了一项名为“25x20”的计划,希望使显卡等产品的能效提高25 倍。
这个计划产生了我们今天熟悉的Zen 和RDNA 架构。凭借这两种架构的卓越性能,AMD不仅实现了2020年设定的目标,而且能效增益也超出了31.77倍。
为什么AMD一直把提高计算能效作为核心目标之一呢?从当前的AI计算需求出发,它会给计算能效带来哪些提升?
狂奔的超级计算中心
众所周知,AI是当今半导体行业的核心和最大需求,而这种需求正推动着半导体坦克的车轮前进。不久前,作为AI时代的领军者,半导体公司英伟达的市值一度达到2.62万亿美元,超过了所有德国上市公司的市值总和。
NVIDIA市值暴涨的唯一原因是其在AI计算硬件领域的主导地位。目前,除了主流的H100、H200等芯片外,所有NVIDIA芯片均由NVIDIA生产。 GB100和GB200的单芯片计算能力可与以前的超级计算机相媲美。
来源:NVIDIA
当然,强大的计算能力是有代价的。 H100的TDP高达700W,最新的GB200的TDP为2700W。 NVIDIA 的官方解决方案允许在单个GB200 NVL72 服务器中最多安装36 个GB200 芯片。芯片本身功耗高达97200W,还不包括其他配套硬件的功耗。
这仅仅是个开始。在很多情况下,亚马逊都宣布计划购买20,000 GB200来构建新的服务器集群。处于人工智能研究前沿的微软和OpenAI 最近宣布了一项雄心勃勃的计划:—— Stargate。
该计划分为五个阶段,预计总投资1150亿美元,完成后将需要数十亿瓦的电力支持。一旦星际之门建成,仅就能耗而言,它就将跻身全球前20名主要城市之列,更何况它只是众多计算中心之一。
来源:AI革命
无论AMD能否实现其疯狂的100倍计划,未来三年AI芯片市场都将迎来一场革命。
版权声明:本文转载于网络,版权归作者所有。如有侵权,请联系本站编辑删除。