当地时间6月12日,AMD CEO苏姿丰在Advancing AI大会上展示了多款AI新品——旗舰AI芯片、AI软件栈、AI机架级基础设施、AI网卡与DPU。大会上,她将AI芯片新品与英伟达同类产品相比较,并表示2028年数据中心AI加速器的市场规模将超过5000亿美元,未来几年推理需求将以每年超过80%的速度增长。
AMD新推出的AI芯片Instinct MI350系列基于AMD CDNA 4架构,采用3nm制程及3D先进封装技术,集成了1850亿个晶体管,搭载288GB HBM3e内存,内存带宽为8TB/s,在FP4、FP6精度下峰值算力达20PFLOPS,单个GPU可运行5200亿个参数的大模型,实现了35倍的AI性能代际提升。
在演讲中,苏姿丰直接将AMD新品与英伟达同类产品进行性能比较。她表示,AMD MI350系列的内存容量是英伟达GB200的1.6倍;在运行DeepSeek-R1或Llama3.1时,AMD MI355X每秒产生的tokens比英伟达B200多20%~30%,与英伟达GB200不相上下;MI350系列具有更高的性价比,MI355X每美元可提供的tokens比英伟达B200产品多40%。此外,苏姿丰表示,AMD将于2026年推出下一代AI芯片MI400系列。
大会上,AMD展示了全新AI软件栈ROCm 7.0。据悉,相比于上一代产品,ROCm 7.0的推理性能和训练性能提升至少3倍,可对GPT、Llama 4、DeepSeek等多款主流大模型提供Day 0级支持,同时进一步优化了在AMD Radeon、Windows上的应用体验,并推出AMD开发者云。ROCm 7.0将于今年第三季度上线。
AMD还介绍了下一代AI机架产品Helios。该产品是AMD首个AI机架级解决方案,基于Zen 6架构,搭载MI400系列AI加速器,集成了AMD EPYC “Venice” CPU、MI400系列GPU和Pensando “Vulcano” NIC网卡,支持260TB/s的扩展带宽,FP4峰值算力达2.9EFLOPS。Helios预计于明年发布。
苏姿丰表示,模型训练将始终是开发模型的基础,大量涌现的专用模型将会针对特定任务、行业或使用场景进行优化,推理将成为未来AI发展的主要驱动力,AI也将从边缘的智能系统扩展至PC终端体验。
本文为中国电子报、电子信息产业网原创 作者:吴修齐,转载请联系出处。