hbm芯片暗战-尊龙凯时平台入口
当前位置: 尊龙凯时平台入口 > 热点资讯

hbm芯片暗战-尊龙凯时平台入口

2022年6月,我们率市场之先,提出“算力即国力”的观点。时至今日,这个论点已经没有太多的争议。

随着英伟达在最新的财报会议中明示,不同的国家都在尝试建立属于自己的ai算力,这一暗流下的激烈角逐已经完全走向台前。

在这一场国家级、企业巨头之间的竞争中,站在最前排的就是大模型和大模型的算力发动机gpu。

从今年的sora、claude3、gpt5的态势来看,大模型的智力涌现并未有丝毫放缓的迹象;这也使得国产大模型的追赶,眼看要缩小的差距又被无情地拉大,但算法的半透明和原理的公开,总归让这场竞赛不至于被套圈太多。

虽然gpu龙头英伟达股价一飞冲天,但搅局者的动力也有增无减,amd作为二供被寄予了厚望,谷歌自研tpu也被不少人看好;而国产gpu选手华为昇腾、寒武纪、海光、沐熙、壁韧等也在尝试形成自己的闭环。

但在更为隐秘的战场,hbm显然是基本被忽视的关键一环。

一、大模型和gpu是明战,hbm则是暗战

如果因循最基本的原则,从ai算力出发,我们知道制约单芯片能力的*瓶颈有三个,分别是:gpu、先进制程,以及hbm。

其中gpu和先进制程是一体两面的关系,优秀gpu企业如英伟达设计出来gpu之后,还需要利用台积电的先进制程进行制造,再利用台积电、日月光的先进封装技术cowos进行最后的合封,这一点在2023年cowos产能奇缺的时候,已被市场刨根问底。

而在同一颗ai芯片上的显存颗粒模组hbm,作为与先进制程同等重要的存在,但到的关注显然不够。这一产品基本完全被韩国的海力士和三星垄断,合计占市场份额的90%以上,丝毫不比gpu和cowos竞争格局差,而高度垄断,在这逆全球化的背景下,隐含的就是高供应链风险。

hbm也是ai芯片中成本占比最高的部分,根据外媒的拆解,h100的成本接近3000美元,而其中占比最高的是来自海力士的hbm,总计达到2000美元左右,超过制造和封装,成为成本中*的单一占比项。

虽然hbm非常昂贵,但随着ai基础算力需求的大爆发,草根调研显示当前hbm仍是一芯难求,海力士和三星2024年所有的产能都已经完全被预定,行业的供需失衡可能在2025年也仍无法得到有效的缓解。可能强如英伟达,也需要思考自己的hbm供应链是否足够安全。

这一重大的产业趋势,自然也被存储芯片大国韩国了如指掌。

经过一段时间的酝酿,2024年初,韩国企划财政部正式公布了《2023年税法修正案后续执行规则修正案草案》,将hbm等技术指定为国家战略技术,进一步扩大税收支持,在这一法案的支持下,三星电子、sk海力士等中大型企业可享受高达30%至40%的减免。

考虑到韩国的大企业所得税一般在25%,这么大力度的减免,相当于给了韩国的hbm产品直接额外赋予了接近10%的价格优势。当前韩国的存储芯片企业海力士和三星,在hbm产品的产能和技术上,本来就处于断档式*,即使其他追赶者能够做出来产品,考虑到海力士和三星天然的价格屠夫的历史形象,这将使得追赶者大概率始终陷入技术落后、价格高企的恶性循环中。

当然,韩国目前仍然是小打小闹,还暂时没有将hbm出口进行管制,或者进行相关的技术限制。但是翻看最近的历史,我们不得不对此事提起十二分的关注。

2022年10月,美国限制中国先进制程的发展,从设备、技术到人才实现全方面围堵,使得原本进步飞速的国产先进制程举步维艰。

2023年10月,美国限制英伟达等美国企业向中国出口超过一定算力和带宽的gpu芯片,直接对国产大模型实施了釜底抽薪式的打击。

如果未来对hbm的限制变严格,那么就意味着我国在ai算力的三要素——先进制程、gpu和hbm——中,将陷入全方位的被动局面。

所以我们才说,上一轮最值得关注hbm的时间是十年前它被发明的时候,其次就是现在。

二、hbm的昨天、今天和明天lt;_o3a_p label="大标题" class="text-big-title"gt;

1. 一种特殊类型的存储芯片,可以理解为dram的3d版本

存储芯片是*的芯片品种。为了满足不同场景的存储要求,又被进一步的分为sram、dram、nand、nor等等,其中市场空间*最为重要的是dram和nand,也就是业内人士常说的大宗品存储,全球的市场空间都是接近1000亿美元。

dram对智能设备的运行速度起到与主控芯片一样的决定性作用,以普通消费者都能接触到的手机为例,主控芯片和内存就是最重要的两颗芯片。hbm,正是dram中的一个分支品种,主打高性能。

根据行业协会的定义,dram可以分为三种:

1)主要用在电脑、服务器中的标准ddr,也就是常说的内存条;

2)手机和汽车等移动终端领域的lpddr系列;

3)用在数据密集型场景的图形类ddr,hbm正是在这一分类下。

所以,hbm是脱胎于普通的dram的升级产品,基于3d堆栈工艺,可以实现更高的内存带宽和更低的能耗。

2023年之前,虽然上述三种dram产品中,hbm在传输速度、容量和功耗方面都具备明显的优势,但高于普通dram数倍的价格,使得对hbm需求一直都是名气没输过、销售没赢过的尴尬存在。

图:存储芯片dram进一步分类,方正证券

但ai大模型的出现,使得hbm找到*的应用场景。

众所周知,大模型的智力涌现,依托于scaling laws指导下的大力出奇迹,大模型对数据量和算力有着近乎无上限的需求,而算力的发动机gpu和存储池hbm,意外成为*的受益者。

传统带宽的标准类ddrdram和移动类lpddr dram显然已经完全无法满足ai芯片的需求,而立体堆叠的hbm,它相对普通的内存带宽可以提升数倍,而功耗反而更低,却*契合大模型的要求。

所以我们可以看到,在ai场景中,英伟达的gpu芯片不再是单独售卖:从流程上,英伟达首先设计完gpu,然后采购海力士的hbm,最后交由台积电利用cowos封装技术将gpu和hbm封装到一张片子上,最终交付给ai服务器厂商。最终产品结构正如海力士的宣传材料展示的一样。

可以说,英伟达、台积电、海力士,这三家公司共同构成了全球ai算力基座的铁三角。

2. ai爆发带来巨大的增长空间

从配角到主角的hbm,也随着ai的爆发也迎来属于自己的广阔舞台。

在ai没有爆发之前,市场预测全球hbm将平稳增长至一个100亿美元的市场。但是随着2023年大模型的横空出世,hbm的市场中枢预测被快速拔高。

根据市场机构测算,2023年hbm市场规模为40亿美元,预计2024年增长至150亿美元,到2026年增长至接近250亿美元,年复合增速高达80%以上。这一测算也与海力士的估算匹配上,2023年11月,海力士ceo表示,预计到2030年,海力士每年hbm出货量将达到1亿颗,隐含产值规模将接近300亿美元,假设届时海力士市场份额为50%,则整个市场空间将在500亿美元左右。

届时,hbm将从配角,正式成为存储芯片中最抢眼的主角。

图:全球hbm市场规模预测,方正证券

3. 科技巨头的缩圈游戏

与ai算力中的其他要素一样,hbm是一个科技难度极高的产品,典型特征是重资本投入和高技术含量。

做hbm,首先就要求芯片企业能做出一流的dram,然后在这个dram芯粒的基数上做3d的堆叠。经过几十年的发展竞争,dram已经有极高的技术门槛,其制程已经微缩到极限,虽然叫法上略有不同,但整体与逻辑芯片差别不大,*进的dram都离不开euv光刻机的加持;同时还非常烧钱,投资金额极高,海力士每年资本开支超百亿美元。所以,当前dram已经基本被韩国三星、海力士以及美国美光所垄断。

而从dram到hbm,抛开更高的资本开支不谈,还新增三大工艺难点:分别是tsv、mr-muf、混合键合hybrid bonding。比如tsv技术,在维持较低的单i/o数据速率的情况下大幅提升了位宽进而获得了远优于gddr的总带宽表现。本文不就技术细节进行展开,这一难度就相当从2d电影进阶到3d电影,完全是另一个维度的竞争。

直接衡量大家技术水平的,简单可以看堆叠层数。根据了解到的最新行业动态:为配套英伟达最新的h200,2024年下半年三大存储厂将推出36gb版本的hbm3e或为12层堆叠。

对于追赶者而言,靶子已经固定在那儿,只是难度着实不小。

三、hbm背后的国力之争lt;_o3a_p label="大标题" class="text-big-title"gt;

我们判断,从2024年起,hbm将继gpu之后成为各个国家算力竞争的关键。

毫无疑问,目前韩国海力士和三星遥遥*。哪怕美国在这个领域也是落后的,他们本土的代表性公司美光科技已奋起直追。而中国国内的大宗存储尚处在追赶状态,所以hbm的落后自然也就更多,也更为急迫。

1. 韩国双子星闪耀:海力士的不放弃功不可没

前文提到,hbm是基于dram的3d形态,而dram的全球霸主三星却在hbm这一细分品类上处于落后状态,而海力士却是垄断者的存在,这得益于公司对hbm技术的不离不弃。

早在10年前的2013年,海力士就首次制造出hbm,并被行业协会采纳为标准。2015年,amd成为*个使用hbm的客户。但在此之后,hbm由于价格高昂,下游根本不买单,甚至一度被认为是点错了科技树。

但海力士死磕这个方向,并没有放弃。在2015-2022年,虽然并没有什么突出客户,海力士仍然对hbm产品进行了多达3次技术升级,丝毫不像对待一个边缘产品的待遇。

图:海力士hbm产品roadmap,公司路演资料

最终,凭借着2023年至今的ai浪潮,海力士的hbm一芯难求,从无人问津到一飞冲天,10年的坚守终于换了回报。在低迷的韩国股市中,海力士股价也一骑绝尘,实现翻倍,成为跟上全球ai浪潮的*一家韩国公司。

另一方面,内存领域的霸主三星,得益于在dram上的深厚积累,以及并不落后的技术储备,迅速崛起成为hbm排名第二的玩家。

2016年三星开始大规模量产hbm。落后于海力士3年;而根据公司最新进展,三星已经于2023年实现了hbm3的量产出货,而将在今年上半年推出hbm3e,而且规划2025年实现hbm4的量产。根据这一规划,三星与海力士的差距已经缩小到半年左右,而差距有望于2025年被完全消弭。

三星除了有dram的底气之外,由于hbm当中包含部分逻辑芯片的电路,因此三星电子依托于自有的逻辑晶圆厂,确实具备弯道超车的比较优势。而且同为韩国公司,直接挖相关人才也更为容易。

毫无疑问,在hbm领域起了个大早的韩国,也丝毫没有放松,还在朝前一路狂奔。

2. 美国独苗苦苦支撑,但犹可追

美国公司在hbm的竞赛中落后似乎是命中注定的。由于存储芯片行业周期性极强,资本开支又是无底洞,已经逐渐被美国企业放弃,比如当年的存储芯片龙头英特尔早已完全退出存储芯片市场,转而增加了对韩国的依赖。

好在美国还剩最后的独苗美光科技。在存储这个刺刀见红的嗜血赛道上,它的生存之道是“苟住”。为了避免出现重大损失,美光一直在研发策略上坚持不做首发者,而更倾向于采取跟随战术,这样能够避免高昂的研发投入和可能打水漂的资本开支。

美光开始研发hbm的时间相对较晚,现在主流的hbm3上,美光的进度较海力士和三星落后半年以上。半年差距看似不大,但在ai硬件军备竞赛中,时间就是生命,大家为了保证大模型的*,都争相上*进的算力产品,用最新的卡、*带宽的光模块和*质的hbm,因此晚半年推出,就代表着整个市场的错失,所以美光在hbm的份额低到只有个位数。

为了实现弯道超车,美光已经开始挖海力士和三星的核心人才,同时开启多代产品的并行研发。公司表示,将在2024年年底实现hbm3e的量产,如果届时完成,将使得其与韩国巨头的技术差距明显缩小。此外,公司规划在2028年量产hbm4e ,将每个堆栈的容量提升到 48gb 至 64gb。

3. 中国突围路在何方?

美国尚存独苗,中国的hbm行业尚处0到1的阶段,要补的课更多。

目前,中国企业在hbm产业链上的存在感甚至还要落后于先进制程与gpu。如果说gpu只是人优我差的问题,hbm则是人有我无的问题。

虽然a股已经对hbm进行了一轮又一轮的炒作,但不得不承认的客观现实是,国内到现在无法量产hbm,这成为国内自研ai芯片的重大隐忧,因为gpu需要和hbm利用cowos工艺封装在一起,国产的gpu和cowos工艺都已经解决了有没有的问题,已经进入量产爆发阶段,而hbm还遥遥无期。

不同于境外市场要么押注龙头海力士,要么押注能追赶上的美光,这种简单的选择题。a股对hbm的投资逻辑演化成两条:

参与全球产业链。选择能够参与到全球hbm供应链中的企业,比如做材料、代销和封测的企业,如雅克科技、神工股份、太极实业、香农芯创等等。

选择相信国产化能够成功。国内具备大宗dram能力的企业长鑫、晋华均未上市,因此选择能够可能在hbm封装上面能够发挥作用上市公司,如通富微电、兴森科技、甬夕电子、长电科技等。

国产hbm正处于0到1的突破期;考虑到海外的贸易保护主义抬头,可能靠自己是一条不得不走的路只能靠我们自己。

时间就是生命,但由于在dram领域的落后,一家企业去主导hbm的突破显得更加困难。从产业链合力的角度,更有望突破,hbm显然需要存储厂、晶圆代工厂、封测厂的通力合作。根据最新的产业信息,到2026年我国将具备量产hbm的能力,但这一速度显然还是有点跟不上日新月异的大模型需求。

也就是说,现在,留给hbm中国队的时间唯“紧迫”二字。

免责声明:该文章系本站转载,旨在为读者提供更多信息资讯。所涉内容不构成投资、消费建议,仅供读者参考。

热门文章

网站地图