英伟达新芯片,这个“加配”的技术成为数不多亮点
据行业分析师预计, HGX H20芯片和L20 PCIe GPU预计将于2023年12月推出,而L2 PCIe加速器将于2024年1月推出。https://img.cfi.cn/readpic.aspx?newspage=pc&imageid=20231110000187
而值得注意的是,虽然算力上与A100有明显差距,但新款算力芯片H20 GPU拥有96GB HBM3内存,内存带宽为4.0 TB/s,这比“全球”H100的3.6 TB/s带宽更高,弥补了算力上的缺陷。
华泰证券表示,AI带动的算力需求快速增长需要存储芯片进行容量与带宽上的配套, GDDR方案带宽迭代速度已难以满足,而带宽更高的HBM方案有望加速增长,预计HBM将在24/25年后成为市场主流。
什么是HBM?
HBM叫高带宽存储器,是AMD和SKHynix联合推出的基于3D堆叠技术的同步动态随机存取存储器(SDRAM),适用于高带宽需求的应用场合,应用于高性能GPU、网络交换及转发设备(如路由器、交换器)、高性能数据中心AI ASIC和FPGA,以及一些超级计算机处理器中。
湘财证券指出,HBM的诞生主要是为了解决“内存墙”和“功耗墙”的问题。
https://img.cfi.cn/readpic.aspx?newspage=pc&imageid=20231110000188 https://img.cfi.cn/readpic.aspx?newspage=pc&imageid=20231110000189
在一些特殊使用场景中(尤其是AI计算领域),处理器经常需要等待内存的数据回传,超高的延时严重拖慢了运算设备整体的运行效率,内存带宽逐渐成为限制计算机发展的关键,HBM通过立体堆叠技术制造完成,这些堆叠的芯片通过称为“中介层(Interposer)”的超快速互联方式,连接至GPU,实现了普通存储8.5倍的带宽,有效解决了内存墙问题
其次,大规模的数据传输需要CPU与存储器通过数据总线进行频繁的数据交换,传输过程消耗的功耗要比计算本身的功耗更大,带来了成本问题,数据中心运营成本中电力成本占到56.70%,而电力成本中67.29%来自于IT负荷,HBM的低功耗优势有利于降低数据中心能源成本。
巨头加码HBM资本开支
目前,多家厂商竞相训练大模型,催生了大量需求。
据金融时报的报道,2023年英伟达将出货55万片H100,2024年将出货150-200万片H100,Omdia预测2023年和2024年的HBM需求量将同比增长100%以上。2025年以后,在AI训练需求和AI推理需求的推动下,HBM的需求将继续快速增长,SK海力士公司预测,在2027年之前,HBM市场将以82%的复合增长率保持增长。
在此背景下,三星、美光、海力士三巨头悉数加码HBM的资本开支。
据韩国The Elec报道,三星电子和SK海力士两家公司加速推进12层HBM内存量产。HBM堆叠的层数越多,处理数据的能力就越强,目前主流HBM堆叠8层,而下一代12层也即将开始量产。
另据集邦半导体报道,三星计划在天安厂建立一条新封装线,用于大规模生产HBM,该公司已花费105亿韩元购买上述建筑和设备等,预计追加投资7000亿-1万亿韩元。
美光方面,首席执行官Sanjay Mehrotra稍早前透露,公司HBM3E目前正在进行英伟达认证,计划于2024年初开始大量出货。首批HBM3E采用8-Hi设计,提供24GB容量和超过1.2TB/s频宽。公司计划于2024年推出超大容量36GB 12-Hi HBM3E堆叠。此前美光曾透露,预计2024年新的HBM将带来数亿美元的收入。
国产厂商发力上游材料领域
HBM产业链主要由IP、上游材料、晶粒设计制造、晶片制造、封装与测试等五大环节組成,国内厂商则主要处于上游材料领域。
民生证券指出,材料端来看,每个HBM封装内部都堆叠了多层DRAMDie,各层DRAMDie之间以硅通孔(TSV)和微凸块(microbump)连接,最后连接到下层的HBM控制器的逻辑die。因此HBM的独特性主要体现在堆叠与互联上。
对于制造材料,HBM核心之一在于堆叠,HBM3更是实现了12层核心Die的堆叠,多层堆叠对于制造材料尤其是前驱体的用量成倍提升;
对于封装材料,HBM将带动TSV和晶圆级封装需求增长,而且对封装高度、散热性能提出更高要求。
页:
[1]