当前位置: 系统豆 >  微软资讯 >  AMD发布自家最强AI芯片:性能碾压H100,国内引入堪忧

AMD发布自家最强AI芯片:性能碾压H100,国内引入堪忧

更新时间:2023-12-07 13:41:13作者:xtdptc
在AI芯片这部分,NVIDIA是目前全球范围内毫无争议的老大,不但出货量最高,同时性能部分也是最强的,几乎全球所有大型AI模型都采用了NVIDIA的AI芯片来提供算力。而在近日,AMD举行了“Advancing AI”发布会,正式推出了面向AI及HPC领域的GPU产品Instinct MI300A/MI300X加速器,直接与NVIDIA之前最强的AI芯片H100竞争。AMD发布自家最强AI芯片:性能碾压H100,国内引入堪忧

事实上,AMD在今年六月就纸面发布MI300A和MI300X。现在MI300A和MI300X已经开始批量量产了,所以在这次发布会上AMD也公布了更多关于MI300A、MI300X的性能数据。AMD MI300A采用了Chiplet设计,其内部拥有多达13个小芯片。基于台积电5nm或6nm制程工艺(CPU/GPU计算核心为5nm,HBM内存和I/O等为6nm),其中许多是3D堆叠的,以便创建一个面积可控的单芯片封装,总共集成1460 亿个晶体管。

MI300A采用新一代的CDNA 3 GPU架构,拥有228个计算单元(14592个核心),并集成了24个Zen 4 CPU内核,配置了128GB的HBM3内存。MI300A的计算核心被8个HBM3内存包围,单个HBM3的带宽为6.3GB/s,八个16GB堆栈形成128GB统一内存,带宽高达5.3 TB/s。 MI300A提供了高达61 TFLOPS FP64算力,多达122 TFLOPS FP32算力。

AMD发布自家最强AI芯片:性能碾压H100,国内引入堪忧

至于MI300X,内部集成了12个5/6nm工艺的小芯片(HMB和I/O为6nm),拥有1530亿个晶体管,采用了更多计算核心的CDNA 3 GPU。MI300X的每个基于CDNA 3 GPU架构的GCD总共有40个计算单元,相当于2560个内核。总共有八个计算芯片(GCD),因此总共有320个计算和20480个核心单元。不过,就目前的量产版而言,会稍微有一些缩水。

在内存带宽方面,MI300X也配备了更大的 192GB HBM3内存,带来高达5.2TB/s的带宽和896GB/s的Infinity Fabric带宽。大型内存池在LLM(大语言模型)中非常重要,LLM大多是与内存绑定的,AMD可以通过在HBM内存容量上的领先地位来提升人工智能能力。

AMD发布自家最强AI芯片:性能碾压H100,国内引入堪忧

具体来看性能提升,MI300A APU提供了相比H100高达4倍的性能提升,与NVIDIA的Grace Hopper超级芯片相比,该系统每瓦的性能也提高了2倍。而更像纯粹GPU架构的MI300X,在具体的AI大模型加速性能对比当中,相比H100在 FlashAttention-2 和 Llama 2 70B 中提供了高达 20% 的性能提升。在各种整数和浮点性能上,MI300X都是H100的1.3倍,这的确相当让人震惊。

AMD之前内部估计全球数据中心AI加速器市场在2023年的规模可达约300亿美元,今后每年的复合增长率都能超过50%,到2027年将形成超过1500亿美元的价值。而现在AMD已经将2023年、2027年的数据中心AI加速器市场规模预期分别调高到400亿美元、4500亿美元,年复合增长率超过70%。

AMD发布自家最强AI芯片:性能碾压H100,国内引入堪忧

从目前来看,针对AI市场,AMD拿出了比NVIDIA更全面的方案,MI300A作为一个APU方案,实际上解决了很多厂商的问题,终端厂商只要采购MI300A就能自己推出OEM的AI PC;而在纯GPU方案上,MI300X现在也要强于H100不少,目前AMD要做的就是完善自己的生态,从而让更多厂商选择自己的芯片。当然无论是MI300A还是MI300X,其算力早就超过了美国出口管制的底线,所以这两款芯片大概率是没法在国内销售的。在美国商务部点名NVIDIA之后,AMD可能不会针对国内市场推出特供版。

相关教程

Copyright ©  2009-2024 系统豆 www.xtdptc.com 版权声明