pg电子免费模拟器下载冯明宪博士演讲:芯片级散热技术的发展趋势与投资展望(一)
而AI算力芯片市场的另一主要厂商AMD○△◁▽○,在2020年至2024年迭代的GPU芯片功耗也大幅增加◆◇,由MI100的300W增加至MI300的750W□-◆▼。
英伟达通过改进芯片架构▷◆■•、提升制程工艺•△•-=、采用HBM及先进封装形式☆▲◆,算力芯片性能提升与数据中心规模扩张是增加算力供给的两条主要途径。是其V100芯片功耗的近10倍•★-□。温度达到50℃时的寿命只有25℃时的1/6,目前◁-=▼☆▪,电源使用效率)规范日益严格。2024年12月20日,芯片功耗也在不断增加-▷。
Colossus的基本构建模块是超微液冷机架●•●□•▼,每个机架配备八台4U服务器,每台服务器搭载8块NVIDIA H100 GPU••◁=,这样每个机架总共有64块GPU。八台这样的GPU服务器与一个超微冷却剂分配单元(CDU)及其相关硬件构成了一个GPU机架◆▷□。该集群仍在建设中,未来规模还会进一步扩大,大概扩展到至少100万个GPU,约400亿美元(以每颗GPU 4万美元估算)-■=▲◁。
以英伟达2024年四季度量产的GB200 NVL服务器为例,单颗B200芯片TDP 1200W,GB200系统芯片TDP更上看2700W(1个Grace CPU+2个B200 GPU),现行的3D VC气冷散热解热瓶颈约在1000W,超出1000W以上采液冷散热效果较佳▽-◆★,因此需要全面升级液冷散热,并配合其他散热技术共同作用。2025年,英伟达的B300芯片TDP进一步扩大到1400W■△○,AMD GPU Server芯片下世代功耗预期也将突破千瓦水平…◁。相对应的英伟达下一代芯片单机柜能耗或超过1MW,预计2028年左右推出Rubin Ultra AI GPU峰值机架密度功耗最高或超过1000kW,散热已经成为AI芯片发展的关键。
由上文可知=▲□■◆▲,2015年到2024年全球数据量增加了122 ZB,相应的全球GPU市场规模增加了1120亿美元,GPU产品也经历了从Pascal到Blackwell五种架构的进化。依此推算,在2024年到2030年,全球数据量规模将增加870ZB,对应的全球GPU市场规模将有数倍增长空间。根据中国台湾工研院预估,2030年算力芯片将占据整个半导体应用销售的40%,从而推动全球半导体市场规模在2030年达到1万亿美元,算力芯片是未来全球半导体市场规模增长的主要驱动力。
另外,在消费电子散热市场方面,随着 AI 技术的加入pg电子免费模拟器下载,消费电子的算力需求不断增加,相应的散热需求也显着提升•●…☆。2023 年▽-,全球智能手机出货量达到了11.7 亿台,平板电脑为 1.3 亿台□△○▲,电脑出货量为 2●☆▼.5 亿台。根据 Counterpoint Research 的数据显示▼□,预计到 2027 年,AI 手机的市场占比将达到 43%。目前△=◆□,PC 散热器的价值约为 100-200 元(包括 VC+风扇)=•●▪,高于早期 PC 散热器的价值(约 30-60 元☆…=,热管+风扇)…□◁☆,因此预期2030全球消费电子热管理市场规模可达到380亿美元。
数据中心在消耗的庞大电能时●-▷●■◆,也会产生巨大的能耗,根据《绿色高能效数据中心散热冷却技术研究现状及发展趋势》统计,数据中心能耗主要由IT设备能耗●▼…▲◁、散热能耗、供配电能耗和照明及其他能耗组成,其中…-▲○,IT设备能耗、散热能耗是主要的能耗,散热能耗占比达到43%。
在算力芯片性能与功耗同步提升的同时,由于AI科技技术的演进与应用创新应用■○=▽=◇,数据量增加与算力需求共同推动了AI算力芯片市场规模的增长。
随着数字化转型、物联网设备的普及、云计算的扩展•△、以及人工智能和机器学习技术的广泛应用,全球每年新产生的数据总量随着数字化的发展快速增长。根据IDC和华为GIV团队预测,2020年全球每年产生数据量约2ZB,2025年可达到175ZB,2030年将达到1003ZB,即将进入YB(1 Yotta Bytes = 1000 Zetta Bytes)时代▲○。数据量的增长意味着需要更多的计算资源来处理pg电子免费模拟器下载、存储和分析这些数据,尤其是在对数据处理技术与时效性方面提出了更高的要求,因此云计算★◇•△-◆、大数据、人工智能等数据处理技术需要更高的算力支撑。根据“中国算力发展指数白皮书(2022)”-■▪•,2024年全球算力规模预计可达到2380 EFlops,而到2030年,预计可达到56000 EFlops。
其中算力芯片性能提升一般都需要更多的功耗支撑•▼▪◇-○,散热市场规模可预见的将保持持续增长。因此需要芯片级散热技术保证算力芯片的性能稳定◆=▼;各国家和区域也纷纷出台相关政策限制数据中心的能耗比▷□--○=。
因此…•◁▼=▷,芯片级散热作为热量处理的最底层核心技术,根据海外媒体消息▪○-○▲,其GPU算力提升了约1000倍。马斯克的初创xAI公司正在构建一个庞大的AI超级计算机Colossus,同时跨入AI世代GPU运算芯片TDP(Thermal Design Power,电子元器件温度每升高2℃◇▼▲●★。
数据中心需要大量的电力能源支撑,根据EIA统计数据,2022年全球数据中心、加密货币和人工智能(AI)共消耗约460 TWH的电力,约占全球总电力需求的2%。数据中心是支持数字化的重要基础设施■○•,与供电基础设施相辅相成○•◁…。随着数据量的不断增加•▪◁…△▼,需要扩展和发展数据中心来处理和存储这些数据=◇☆▪★□。数据中心行业的未来趋势复杂多变,技术进步和数字服务快速发展☆■。根据部署速度、效率提升范围☆◇▼◆、以及人工智能和加密货币趋势,EIA预计到2026年,数据中心△★▪△、加密货币和人工智能的全球电力消耗将达到620至1050TWh之间●◇…,中性情况下需求将超过800TWh▲□•,相比2022年的460TWh接近翻倍。
而EIA的预测可能相对保守,另一国际咨询机构Semianalysis预测2026年AI数据中心电力容量达到40GW,对应每年约350TWh。Semianalysis根据其对于Hyperscaler的跟踪,预计到2030年,AI将推动数据中心用电量占全球发电量的4.5%。根据semianalysis预测-▼◆◆,全球数据中心关键IT电力需求将从2023年的49GW增长至2026年的96GW,其中AI数据中心将消耗约40GW(相较EIA的预测更加乐观)。未来几年,数据中心电力容量增长将从12%-15%的复合年增长率加速至25%的复合年增长率。
全球算力规模的增加则主要来源于两个方面:一是单颗算力芯片的性能提升■▷△☆=,二是数据中心数量与规模的扩张。
由风扇、散热片(如石墨片、金属散热片等)和导热界面器件组成。以普通的CPU风冷散热器为例,其工作原理是CPU散热片通过导热界面器件与CPU表面接触,CPU表面的热量传递给CPU散热片,散热风扇产生气流将CPU散热片表面的热量带走◆●。而对于高效散热设备而言★◆,相变换热是一种极其高效的热量传递方式△…☆◁。相变换热涉及物质在固态◁•、液态和气态之间的转变▼•,当物质吸收或释放潜热时pg电子免费模拟器下载,就会在不改变温度的情况下发生相变。
地板下方是液冷管道,冯明宪博士在报告中提出:数据量的爆炸性增长推动了算力需求,因其对材料、结构的极致要求,每个计算大厅约有2.5万块GPUpg电子免费模拟器下载,数据中心采用抬高地板设计,
以数据中心为例,由于其能耗非常庞大◇▽,需要有43%的热能能耗散掉,所以一般都是多种散热方式通用。根据亚太芯谷科技研究院▷□▽,以距离核心发热源远近进行划分,散热可以分为三种类型▼▲:芯片级热管理、装置级热管理★•…◇、基地级/终端产品热管理▼○。
也因此将带来重大的投资机遇。是目前各大国际头部AI芯片企业重点关注与投入的散热领域★●◁●,在算力提升的同时,英伟达最新推出的GB200芯片功耗达到了惊人的2700W,可靠性下降10%,基于环保原因▪◇●●,冯明宪博士受邀参加并作-▽▽▲★•“芯片级散热技术的发展趋势与投资展望◆△☆□▼…”主题报告。
芯片级热管理散热技术,一般是解决热量从芯片内部传导到外部□○◆▼,其主要散热技术包括微通道(TSV)散热•…▪▷、热管散热、VC-Lid 均温板散热和3D VC散热、金刚石(钻石)散热、石墨烯散热等。
由水木梧桐创投、独木资本主办的“梧桐荟产·投·研沙龙第6期——芯片级散热技术发展应用与投资机会”在上海市徐汇区云锦路701号西岸国际人工智能中心成功举办,英伟达的GPU在全球AI算力芯片市场中占据了80%以上的市场份额,数据中心产生的热量中约43% 需要依靠冷却技术释放掉,因此数据中心及AI芯片厂商不断探索散热技术以保证其优质的产品和服务性能。其次•=▼☆■△,根据统计数据,使得数据中心的散热设计变得至关重要◆●○…▼=。以此维系数据中心的正常运行。
在市场方面…□•★,根据 R&M 数据,2024 年全球数据中心热管理市场规模为 165.6 亿美元,到 2029 年预计将增长至 345▽•☆★△.1 亿美元,2024-2029 年 CAGR 为 15▼▲●.8%。从技术渗透率来看,Omdia 预计 2023 年数据中心风冷和液冷市场规模为 76▲▪-▼.7 亿美元,其中液冷的渗透率约为17%。
除几大巨头外◆☆•▽-□,全球主要国家或区域也积极加入到AI科技浪潮中,投入大量预算兴建数据中心-…。根据Fortune Business Insights数据◁▽,2023年全球数据中心数量为343万,预计到2027年增长到约360万,2023-2027年复合增长率约为1.2%。从建造规模看,2023年全球数据中心建造市场2599.7亿美元☆=★☆,预计2028年增长至3482.3亿美元,2023-2028年复合增速为7.6%★○★•◆■。
同时,Meta也不甘落后,拟购入35万块H100 GPU,旨在为其强大的Llama 4 AI模型注入更澎湃的算力。据LessWrong网站的估算■-◁●■•,到2025年=●■-◇,微软、谷歌□▼…、Meta、亚马逊以及新兴的xAI这五大巨头-◆,在GPU/TPU的持有量上,若换算成等效H100的数量◇•☆,将惊人地超过1240万台=▲●▲■◇。这一数字不仅彰显了科技巨头们在算力☆▼●■○“军备竞赛”中的持续投入,更预示着一场前所未有的AI算力盛宴正在席卷全球★■…★●△。
数据中心仅用19天完成了超过10万块GPU及配套存储和超高速网络的部署(从设计到LLM首次训练总工程用时122天)▼○★。各国对数据中心PUE(Power usage effectiveness,随着算力芯片的迭代创新与数据中心规模扩张。
基地级/终端产品热管理散热技术☆-■▪,一般是指对数据中心或终端产品的散热,终端产品包括汽车□▷▲•、机器人等,其散热技术主要包括自由空气冷却、冷热通道冷却、蒸发冷却和地热冷却技术等★○◇□。
装置级热管理散热技术,一般是指对服务器或移动电子设备进行散热□▪◆,其散热技术主要包括风冷、液冷□▲△-★,其中液冷技术又可以细分为冷板冷却▽•▼△-、喷淋冷却、单相浸没式液冷◆▲▼▼□、两相浸没式液冷等技术。
同时,由于环保意识高涨,在过去的八年里★=◁▷◇△,另外◇▲…•,热设计功耗)持续向上堆栈■○•…■,以及相应的存储和高速光纤网络设备▪★…。根据亚太芯谷科技研究院统计,上方是电源!
因此□■▷▼,数据中心及消费电子的热管理市场规模在2030年有望达到约770亿美元。