AMD造出最大芯片InstinctMI300加速卡,包含128GBHBM

2023-01-08 15:25  |  来源:IT之家  |  编辑:笑笑  |  阅读量:19806  |  

感谢本站的朋友OC_Formula的线索传递!

在CES 2023上,AMD公开了面向下一代数据中心的APU加速卡产品Instinct MI300该芯片将CPU,GPU,内存封装成一个整体,大大缩短了DDR内存冲程和CPU—GPU PCIe冲程,从而大大提高了其性能和效率

这款加速卡采用小芯片设计,拥有13个小芯片,基于3D堆栈,包含24个Zen4 CPU内核,并集成了CDNA 3和8个HBM3内存堆栈,集成了5nm和6nm IP,共包含128GB HBM3内存和1460亿个晶体管将于2023年下半年上市

目前AMD InstinctMI300的晶体管数量已经超过了拥有1000亿个晶体管的英特尔Ponte Vecchio,是AMD投产的最大芯片从苏丽莎女士手持Instinct MI300的照片中我们也可以看到,它的大小已经超过了半只人类的手,看起来比较夸张

AMD表示,它有9个基于3D堆栈的5nm小芯片和4个基于6nm的小芯片,周围是封装的HBM内存芯片,共有1460亿个晶体管部件AMD表示,这款加速卡的AI性能比上一代高很多

目前AMD只发布了这个信息量产芯片将于2023年下半年推出届时可能会有NVIDIA Grace,Hopper GPU等竞品,但应该会比英特尔的猎鹰海岸更早

从AMD代表展示的MI300样品来看,这9个小芯片采用了主动式设计,不仅可以实现I/O tile之间的通信,还可以与HBM3栈接口的内存控制器通信,从而带来不可思议的数据吞吐量同时,它还允许CPU和GPU同时处理内存中的相同数据,从而节省功耗,提高性能,简化流程

本站了解到,AMD宣称InstinctMI300可以带来8倍的AI性能,MI250加速卡每瓦5倍的性能提升它可以将ChatGPT和DALL—E等超大型AI模型的训练时间从几个月减少到几周,从而节省数百万美元的电费

值得一提的是,Instinct MI300将应用于美国即将推出的200亿次超级计算机El Capitan,这也意味着El Capitan在2023年部署时将成为世界上最快的超级计算机。

声明:本网转发此文章,旨在为读者提供更多信息资讯,所涉内容不构成投资、消费建议。文章事实如有疑问,请与有关方核实,文章观点非本网观点,仅供读者参考。

上一篇: 股东大会没开完董事长“先走为敬”?亿嘉和董秘张晋博向股东致歉 下一篇:返回列表
ad4
ad3