首款数据中心级APU
鱼羊 Alex 发自 凹非寺
量子位 | 公众号 QbitAI
一颗芯片塞进1460亿个晶体管。
还号称能将ChatGPT、DALL·E等大模型的训练时间,从几个月缩短到几周,节省百万美元电费。
就在科技春晚CES 2023上,苏妈带着AMD“迄今为止最大芯片”来炸场子了。
这颗代号为Instinct MI300的芯片,也是AMD首款数据中心/HPC级的APU。
参数性能
1460亿个晶体管是个什么概念?
此前,英特尔的服务器GPU Ponte Vecchio拥有的晶体管数量是1000亿+,而英伟达新核弹H100,则集成了800亿个晶体管。
不过,熟悉AMD的胖友们都知道,APU简单来说就是CPU和GPU封装在了一起。从这个角度上来说,远超竞争对手的晶体管数量似乎也是情理之中(手动狗头)。
具体来说,这颗拥有1460亿个晶体管的芯片,采用的是小芯片(Chiplet)设计方案。
基于3D堆叠技术,在4块6nm工艺小芯片之上,堆叠了9块5nm的计算芯片(CPU+GPU)。
根据AMD公开的信息,CPU方面采用的是Zen 4架构,包含24核。GPU则采用了AMD的CDNA 3架构。
由于Zen 4架构通常是8核设计,外界普遍猜测,9块计算芯片中有3块是CPU,6块是GPU。
另外,MI300拥有8颗共128GB HBM3显存。
性能方面,AMD并未公布太多信息,仅与Instinct MI250X进行了比较。
苏妈表示,相比于MI250X,MI300每瓦AI性能提升了5倍,AI训练性能整体提高了8倍。
而据Tom‘s Hardwre消息,AMD还透露,MI300能将ChatGPT、DALL·E等大模型的训练时间,从几个月缩短到几周。
Instinct MI300预计将在2023年下半年交付。届时,这颗芯片还将被部署到两台新的百亿亿次级别(ExaFLOP)超级计算机上。
One More Thing
同样是在今年的CES上,AMD还直接对标苹果M系列芯片,推出了“世界最快的超薄处理器”——锐龙7040系列。
具体型号包括:Ryzen 5 7640HS、Ryzen 7 7840HS、Ryzen 9 7940HS。
对于其中最高端的R9 7940HS,苏妈大赞道:
R9 7940HS在多线程性能方面,比苹果M1 Pro快34%;在AI任务处理上,比苹果M2快20%。
还给出了更直观的体验数据:搭载锐龙7040系列芯片的超薄笔记本,能连续播放30+小时视频。
首批搭载锐龙7040处理器的笔记本电脑,将在今年3月份出货。
不管怎么说,这消息可把吃瓜群众乐坏了:
苹果下场自研PC芯片,加强了芯片制造商之间的竞争,这种局面其实10年前就该有了。
参考链接:
[1]https://www.youtube.com/watch?v=OMxU4BDIm4M
[2]https://www.tomshardware.com/news/amd-instinct-mi300-data-center-apu-pictured-up-close-15-chiplets-146-billion-transistors
[3]https://www.anandtech.com/show/18721/ces-2023-amd-instinct-mi300-data-center-apu-silicon-in-hand-146b-transistors-shipping-h223
[4] https://www.macrumors.com/2023/01/05/amd-new-chips-against-m1-pro/
发评论,每天都得现金奖励!超多礼品等你来拿
登录 后,在评论区留言并审核通过后,即可获得现金奖励,奖励规则可见: 查看奖励规则