CoWoS – 庄闲棋牌官网官方版 -199IT //www.otias-ub.com 发现数据的价值-199IT Mon, 24 Feb 2025 11:45:45 +0000 zh-CN hourly 1 https://wordpress.org/?v=5.4.2 台积电:2024年Q1英伟达Blackwell芯片订单占CoWoS-L封装产能超70% //www.otias-ub.com/archives/1742409.html Mon, 24 Feb 2025 11:45:45 +0000 //www.otias-ub.com/?p=1742409 近日消息,据台媒《经济日报》报道称,近日业界传出消息,英伟达(NVIDIA)最新Blackwell构架GPU芯片需求强劲,已包下台积电今年超过70%的CoWoS-L先进封装产能,出货量以每季环比增长20%以上逐季冲高,助力台积电营运热转。
业界分析称,英伟达将于26日美股盘后发布上季财报与展望,随英伟达大举包下台积电先进封装产能,意味今年旗下 AI芯片出货持续放量,四大云端服务供应商(CSP)拉货动能续强,为英伟达财报会议提前报喜。随着美国力推星际之门(Stargate)计划,预计带动新一波AI服务器建置需求,英伟达有机会再追单台积电。

台积电看好先进封装接单,台积电董事长魏哲家已于1月的法说会公开表示,正持续扩增先进封装产能,以满足客户需求。据台积电统计,2024年先进封装营收占比约8%,今年将超过10%,并以毛利率超过公司平均水准为目标。

供应链透露,英伟达在Blackwell构架量产后,将逐步停产前一代Hopper构架的H100/H200芯片,世代交替时间点最在今年中。

法人说明,英伟达Blackwell构架芯片虽仍采用台积电4nm生产,并将其分别开发高速运算(HPC)专用的B200/B300,以及消费性用RTX50系列,并于B200/B300当中,开始转用结合重布线层(RDL)和部分硅中介层(LSI)的CoWoS-L先进封装。

CoWoS-L先进封装不仅让芯片尺寸面积扩大,增加晶体管数量,也可堆叠更多的高频宽內存(HBM),使高速运算性能升级,就性能、良率及成本等层面来看,均优于先前CoWoS-S及CoWoS-R先进封装技术,成为B200/B300主要卖点。为此,英伟达大举抢下台积电今年CoWoS-L先进封装庞大产能。

台积电今年扩增的CoWoS新产能逐步开出,预计为英伟达量产的Blackwell构架芯片今年将以每季增加20%以上快速增长,合计英伟达包下了台积电超过70%的CoWoS-L产能,预计全年出货量将冲破200万颗。

另外,台积电由于自身产能有限,已将CoWoS先进封装当中的WoS(Wafer on Substrate)产能委外,不仅日月光投控吃下大笔先进封装及测试订单,京元电子也拿下了高速运算客户大量前段晶圆测试(CP)及后段晶片最终测试(FT)订单,将京元电子现有产能全数塞满。

自 芯智讯
]]>
TrendForce:Blackwell出货在即,CoWoS总产能持续看增,预估2025年增率逾7成 //www.otias-ub.com/archives/1699597.html Wed, 05 Jun 2024 07:00:20 +0000 //www.otias-ub.com/?p=1699597 根据TrendForce集邦咨询研究,NVIDIA Hopper平台H100于今年第一季短缺情形逐渐纾解,属同平台的新品H200于第二季后逐渐放量,第三季新平台Blackwell将进入市场,第四季扩展到数据中心客户。但今年应仍以Hopper平台为主,包含H100、H200等产品线;根据供应链导入Blackwell平台进度,预计今年第四季才会开始放量,占整体高阶GPU比例将低于10%。

TrendForce集邦咨询表示,属Blackwell平台的B100等,其裸晶尺寸(die size)是既有H100翻倍,估计台积电(TSMC)2024年CoWos总产能年增来到150%,随着2025年成为主流后,CoWos产能年增率将达7成,其中NVIDIA需求占比近半。HBM方面,随着NVIDIA GPU平台推进,H100主搭载80GB的HBM3,至2025年的B200将达搭载288GB的HBM3e,单颗搭载容量将近3~4倍成长。而据三大原厂目前扩展规划,2025年HBM生产量预期也将翻倍。

Microsoft、Meta、AWS将首波采用GB200

据TrendForce集邦咨询研究,以云端服务业者(CSP)导入现况来看,以Microsoft、Meta、AWS较为积极,预期2025年GB200方案合计出货量有机会达逾30,000柜,Google则可能倾向优先扩大自家TPU AI基础设施。Blackwell平台之所以备受市场期待,主要是有别于HGX或MGX单台AI服务器,改推整柜式型态,整合自家CPU、GPU、NVLink及InfiniBand等高速网通技术。其中,GB200又分为NVL36及NVL72,每柜分别搭载达36及72颗GPU,而NVL72将为NVIDIA主推组态,但因其设计较为复杂,估计2024年底将以NVL36先导入前期试练,以求快速进入市场(Time to Market)。

2024年AI服务器需求持续扩大

据NVIDIA FY1Q25资料来看,企业客户、Tier-2数据中心客群需求明显提升。TrendForce集邦咨询表示,受限于2023年CoWoS及HBM供应不及,如NVIDIA优先将其高阶GPU提供给大型云端服务业者(Hyper CSP),以全球高阶AI server整体市场来看,2023年CSP合计对AI服务器的需求量占比约65%。

自2024年上半年随GPU供货短缺获缓解后,今年来自服务器品牌商如Dell、HPE的需求占比将扩大至19%;其他包含各地区Tier-2数据中心如CoreWeave、Tesla等,或各国超算中心项目等,合计需求占比将提高至31%,主因AI训练或应用过程中,可能涉及数据隐私安全等议题,预期未来此块市场也将扮演驱动AI服务器出货成长的关键。

]]>