电话:020-66888888
CICC:投资计算能力状况良好,投资上限可能很高
作者:365bet网页版 发布时间:2025-09-12 09:13
资料来源:CICC安全研究 当前,用户的大型AI模型的渗透率仍然很低,大型模型的发展仍在中间和主要阶段,并且工业化已经开始。大型模型带来的计算能力的投资处于充分状态,资本支出将增长以增长大型模型的收入,投资上限可能很高。我们继续推荐AI计算电源部门,包括国内计算功率链和北美计算功率链的链。 CICC证券的通信,电子,人工智能和计算机研究团队启动了[计算电源芯片产业链投资机会]: Broadcom绩效重新确认了功率计算部门的丰富性,并继续登上计算机链 盈利能力提高了,计算能力部门非常出色,机构处理的比例达到了一个新的高 阿里巴巴的资本支出达到了新的高度,并继续推荐计算能力产业链 DeepSeek-V3.1已发布,建议注意国内计算的电力部门 AI计算电源投资一直在整个时间,卫星互联网的构建大大加速了 一个新的AI时代:早日撤离新疆和智慧 GPT-5已发布,并且恢复了计算的强度,ESIM吸引了人们对市场的关注 计算电源行业的高发展经常得到证明,并且赞赏可能具有改进的余地,其性能良好,国内计算电源公司的性能逐渐实现 AI计算能力,AI眼镜和电信运营商继续推荐 继续对Stablecoin和计算电源行业保持乐观 华为pangu大型5.5已完全升级,AI计算CA能力和模型功能是进一步的成功 DeepSeek R1深度分析和计算功率影响几何形状 2025年中期投资策略报告:保持股息,选择计算能力,请注意更改 2025年中期投资策略报告:期待末端AI的爆发,高端国内生产能力将立即损害 人工智能2025中等警告策略:推理进入舞台中间,自主和受控趋势,代理和多模式的加速 1 Broadcom宣布了截至2025年8月3日的2025财政年度的第三季度业绩,收入,收入和商业指南超出了市场期望。在第三季度,Broadcom获得了159.5亿美元的营业收入,增长了22%,高于分析师对158.4亿美元的期望,并超过了公司以前的158亿美元公司指南,Settii同时,公司历史上最高收入的记录。非GAAP口径下的形容词净利润达到840.0亿美元,增长了37.3%; EBITDA的受试者为107.0亿美元,全年的一切都增加了30.1%,超过了大约105亿美元的市场预期,收入利润率上升至67.1%,上一季度的收入利润率为66.7%。同时,该公司提供了第四季度的有力指南,收入预计约174亿美元,同比增长23.8%,超过了170.5亿美元的市场预期; EBITDA利润率预计将保持67%左右,高于分析师66%的预期。 Broadcom首席执行官Cen Fuyang表示,该公司的体育收入第三季度的AI AI半导体同比增长63%,至52亿美元,高于分析师的预期511亿美元,增长率提高ED从46%到上一季度。期待第四会计季度,Broadcom预计AI CHIP业务收入将大幅度达到62亿美元,连续11个增长季度,相当于每月每月增长19%。该指南比市场预期高6%。 Chen Fuyang表示,该公司正在与许多潜在客户合作生产自定义AI加速器,并正式进入NVIDIA领导的AI培训芯片市场。上个季度,潜在客户之一与Broadcom下达了生产订单。尽管没有命名,但“神秘的客户”被确认为Broadcom XPU平台的合格客户,并将订单达到100亿美元,在现有三个主要客户之后,该订单已成为四个最大的AI自定义客户。 我们认为,用户的大型AI模型的渗透率仍然很低,Malalmy模型的发展仍在中间和主要阶段,工业化已经是枪。大型模型带来的计算能力的投资处于充分状态,资本支出将增长以增长大型模型的收入,投资上限可能很高。我们继续推荐AI计算电源部门,包括国内计算功率链和北美计算功率链的链。 报告的来源 研究安全名称研究名称:“ BroadCom绩效证实了计算能力部门的高繁荣,并继续推荐计算产业链” 发布日期:2025年9月7日 代理发布报告:CITIC Construction Investment Securities Co,Ltd.。 本报告中的分析师: Yan Guicheng SAC编号:S1440518040002 SFC No。:BNS315 Liu Yongxu Sac No。:S1440520070014 SFC编号:BVF090 Yu Fangbo SAC编号:S1440522030001 SFC No。:BVA286 CAO TIANYU SAC编号:S1440522080001 Fang Zixiao SAC编号:S1440524070009 Zhu Yuanzhe Sac No。:S1440525070002 03阿里巴巴资本的支出达到了新的高度,并继续推荐计算电源链 阿里巴巴发行了2025q2的性能。阿里巴巴在2025Q2的云收入为33.98亿元人民币,增长了26%。与AI相关的收入继续保持三位数的增长。 AI为外部商业收入贡献了20%以上,AI需求迅速扩大,这也导致对计算,存储和其他公共云服务的需求增加。在2025年的第二季度,阿里巴巴的资本支出为386亿元人民币,增长了220%,每月增长了57.1%,在一个季度中创下了创纪录的高度。根据收入的说法,阿里巴巴首席执行官吴Yongming透露,在过去的四个季度中,阿里巴巴在AI基础设施和AI产品研究与开发方面投资了超过1000亿元人民币。该公司重申,它将继续在接下来的AI中投资3800亿元人民币REE年,尽管由于供应链因素,一个季度的投资金额将会改变,但总体节奏保持不变。阿里巴巴宣布,该公司已为全球供应和政策的全球变化准备了“预备计划”,并通过与各种合作伙伴合作,已经建立了各种供应链储备,以确保可以按计划建立投资计划。目前,阿里巴巴取得了积极的投资循环,这使AI收入增加。建议注意工业阿里巴巴链,包括GPU,IDC,光学模块,开关等。 NVIDIA发布了最新的财务季度业绩,需求不断强劲,H20影响了公司的收入。直到2025年7月27日26日第2季度,NVIDIA的实现了467.43亿美元,同比增长了56%,数据中心收入为411亿美元(H20销售收入减少了40亿美元),一年一度的收入增加了56%,布莱克韦尔平台每月增加17%,该公司开始并将GB300运送到GB300第二季度。根据Blackwell的架构,每个令牌都可以实现10倍的投资回报,比料斗每个令牌的能源效率高50倍。在FY26Q2中,该公司在非GAAP口径下的每bahagi(EPS)的适应性收入为1.05美元,同比增长54%;该公司的26Q3收入指南为540亿美元(±2%)。 NVIDIA表示,预计今年CSP等资本支出预计将约为6000亿美元,指导全球人工智能基础设施支出达到2030年的3万亿美元。NVIDIA表示,中国市场预计将扩大约5000亿美元的每年50亿美元。 7月下旬,美国政府开始检查向中国客户出售H20的许可证。如果解决地缘政治问题,预计该公司将达到2美元的Billio第三季度n至50亿美元的收入。此外,将布莱克韦尔(Blackwell)带到中国市场的机会是正确的。国务院最近发布了“人工智能 +“行动”的深刻实施意见。 “意见”的总体要求是,到2027年,这将是第一个实现人工智能与六个关键领域的广泛而深层整合,新一代智能终端,智能机构和其他应用的渗透率超过70%,智能经济的核心行业规模将在智能经济的范围内增长,人工智能在人工智能中的作用将在人工智能中的发展,并且将不断提高人工智能。到2030年,我国的人工智能将充分赋予质量发展,新一代智能终端,智能机构和其他应用的渗透率将超过90%。明智的经济OMY将成为我国经济发展的重要载体,该杆将促进技术一体化和共享结果。到2035年,我的国家将充分进入智慧经济和聪明社会发展的新阶段,为社会主义现代化的基本实现提供了强有力的支持。 来自阿里巴巴和NVIDIA的最新财务报告的判断,国内和外国CSP制造商在计算能力上的投资不断增长;阿里巴巴的AI收入继续保持三位数的增长,使人们看到了实施AI商业化的清晰途径,该商业化的途径使投资者担心将投资返还给AI。我们继续推广推荐的计算功率领域,包括国外Powerrihan的链和国内计算功率链。 报告的来源 名称研究名称研究名称:“行业评论:能力的提高,计算机领域是淘汰的NG,机构的持股达到了新的高位” 出版日期:2025年9月2日 代理发布报告:CITIC Construction Investment Securities Co,Ltd.。 本报告中的分析师: Yan Guicheng SAC编号:S1440518040002 SFC No。:BNS315 Liu Yongxu Sac No。:S1440520070014 SFC编号:BVF090 CAO TIANYU SAC编号:S1440522080001 Zhu Yuanzhe Sac No。:S1440525070002 04 DeepSeek-V3.1已发布,建议注意国内计算电源部门 国内计算的电力部门集中在密集催化中。腾讯性能会议说,推理芯片的供应渠道方面有很多选择,预计Thedomentic Computing Power Chips将在连锁连锁店的背景下提供支持。 DeepSeek更新了模型,显然支持FP8的准确性和要发布的下一代国内芯片。预计国内芯片领先的国内开源模型的支持将促进加速的I国内计算能力生态系统的练习。华为Ascend Chips最近参加了针对政府客户,财务,运营商和其他行业的投标产品,证明国内筹码的竞争力将继续提高。 事件 8月13日,腾讯的表演会议表示,该公司有筹码的各种供应渠道选择。 DeepSeek于8月21日更新了DeepSeek-V3.1上的模型版本,该版本有望支持FP8和国内芯片的准确性。 简短评论 腾讯的表演会议说,推理芯片的供应预计将来会有所不同,这将使国内计算机芯片的制造商受益。 8月13日,腾讯控股(Tencent Holdings)发布了2025年第一季度的演出,并举行了简报。在会议上,腾讯总裁刘奇丁(Liu Chiping)表示,该公司目前的AI芯片储备足以支持现有模型的培训和迭代升级;增加使用次数在许多应用程序方案中,诸如Yuanbao和AI搜索等RS都会增加负载负载的比例。一方面,公司通过轻巧模型和软件优化控制理解成本。另一方面,该公司在推理芯片的供应渠道方面也有多种选择。当前的高端芯片贸易政策的不确定性更大,预计腾讯将依靠华为,坎布里安和海甘等国内制造商的推理来满足相关的计算能力要求。 DeepSeek v3.1已发布,预计将支持FP8和国内芯片的准确性。根据官方帐户,Deviceek今天正式发布了DeepSeek-V3.1。当前,官方网站和网络端模型已升级到最新版本,新型号被升级到HuggingFace。该模型的新版本主要升级到Follo机翼尺寸:(1)模型支持相同的思维方式和模式不思考; (2)与上一代模型相比,新模型可以在思维模式下以较短的时间给出。 (3)通过优化训练后,新模型具有更强的代理能力。除了升级操作外,该模型的新版本还使用EE8M0 FP8量表参数的准确性,该参数代表模型支持转换为FP8精度格式,该格式正在为AI核心操作(例如矩阵复制)进行综合。与FP16格式相比,FP8在同一芯片区域的性能以及较低的电力消耗和带宽要求的情况下可以翻一番。此外,DeepSeek表示,新的准确性格式旨在释放下一代国内芯片,表明将来,基于DepSeek模型的培训和推理预计将使用更多的国内AI芯片来帮助加速圆顶的建设。Stic计算生态系统。 华为攀登了筹码,可以加快其突破性,而国内芯片市场的竞争力逐渐提高。最近,政府,财务,运营商和其他行业推出了基于华为上升筹码的服务器产品。上海Pudong Development Bank的大型计算功率扩展项目的竞标包括由Kunpeng + Ascend配置的176个智能计算服务器; Xinjiang Xinjiang计算Wanka Hub Intelligent Computing Center的竞标包括4,500 Ascend 910C-2服务器群集;中国移动2025-2026推理AI计算设备的竞标包括5,000套Cann Ecogical设备,即基于上升异质计算体系结构和上升芯片的服务器产品。由于外国供应连锁店的持续风险,袋子的有效性将继续增加,而计算机的需求能力越多ED将得到国内筹码的支持,国内芯片市场的竞争力将继续改善。 投资建议:国内计算电源部门服用进行密集催化。腾讯性能协会表示,推理芯片的供应渠道方面有很多选择。国内推断计算功率芯片有望在国际供应链的背景下提供支持。 DeepSeek更新了模型,显然支持FP8的准确性和要发布的下一代国内芯片。预计国内芯片领先的国内开源模型的支持将促进国内计算能力生态系统的加速实施。华为Ascend Chips最近参加了为政府客户,财务,运营商和其他行业提供产品,证明国内筹码的竞争力将继续提高。 报告的来源 安全安全研究的名称E:“ DeepSeek-V3.1已发布,建议注意国内计算能力部门” 出版日期:2025年8月21日 代理发布报告:CITIC Construction Investment Securities Co,Ltd.。 本报告中的分析师: ying ying sac编号:S1440521100010 SFC号:BWB917 Wang Jiahao SAC编号:S1440524030002 01 AI计算电源投资一直存在,卫星互联网构建大大加速 8月11日,马斯克人工智能公司XAI宣布Grok 4现在免费向全球所有用户开放。允许用户进行限制数天数的查询数,如果数字超过数字,他们将需要为订阅付费。苹果宣布,即将到来的iOS 26系统将包括ENAI的GPT-5型号将导致苹果智能的绩效显着提高。当Apple Intelligence无法处理特定请求时,它将能够使用GPT-5 CAPA提供更准确,更智能的响应的能力。我们认为,当前大型AI模型的用户渗透率仍然很低,大型模型的开发仍处于中间和主要阶段,并且该应用程序的工业应用已经开始。大型模型带来的计算能力的投资处于充分状态,资本支出将增长以增长大型模型的收入,投资上限可能很高。目前,北美连锁店和国内连锁店值得关注计算基础设施行业。 报告的来源 研究安全名称研究名称:“ AI计算能力的投资遍布,卫星互联网的构建大大加速” 出版日期:2025年8月17日 代理发布报告:CITIC Construction Investment Securities Co,Ltd.。 本报告中的分析师: Yan Guicheng SAC编号:S1440518040002 SFC No。:BNS315 Liu Yongxu囊否:S1440520070014 SFC编号:BVF090 Yu Fangbo SAC编号:S1440522030001 SFC No。:BVA286 Fang Zixiao SAC编号:S1440524070009 Zhu Yuanzhe Sac No。:S1440525070002 02 AI的新时代:新疆的早期去除和智慧之火传播了世界 通过在各个方面加速应用,AI计算强度的消耗开始从实践到推理,同时,主权AI增加了投资,从而大大提高了计算强度。探索背后的需求不断增加,主要来自四个方面: 首先,主要的互联网公司加速了AI和原始业务的集成。例如,Google搜索于今年5月21日正式带来了AI模型,并逐渐推出了美国市场。考虑到年度Google搜索量是全球5万亿次以上的50万亿次,认为单个答案平均为2,000个令牌,此功能将带来平均值 - 白天消耗27万亿个令牌(超过当前平均代币平均值的平均双子座模型)。类似的情况,例如在微博AI智能搜索中进行的DOONG搜索,搜索操作开始从普通服务器转移到AI服务器,并研究了所有搜索体验。类似的视频编辑和编辑也是AI; 第二个是整合代理,深入思考和推理。通过合并两者,实施代理工作的准确性得到了极大的提高。平均代币以100,000的顺序消耗了代理商的作品的实施,这比单个问题和回答代币的AI消耗高,并且可能在更开放的情况下扩展。同时,多年龄合作团队的情报也开始逐渐商业化。过去,复杂和多步活动可以由代理人完成。代理商的受欢迎程度是doadala对输液的需求大幅增加NCE计算能力; 第三个是多模式,电影和视频的多模式质量产生的图表急剧增加,今年AI营销内容的比例急剧增加。根据“ 2025年中国广告大师营销趋势调查报告”,“超过50%的广告商在开发创意内容时使用AIGC,而AI营销内容占10%以上”。一分钟视频的代币产生实际上是数百万个令牌的100,000个令牌。当前,多模型模型已开始进入快速商业化的阶段。例如,Kuaishou Keling在4月和5月的连续两个月内支付了超过1亿元人民币,并且多模式的加速穿透导致计算强度需求的重要性。 第四,主权AI,科学研究和军事研究是关键,它已扩展到其他行业以提高效率y。共同代表致力于为美国促进“星门”计划。此外,来自不同国家的政府还为主权AI启动了投资计划,尤其是由欧洲,中东,日本和其他国家代表的,投资额超过3000亿美元。 从计算能力的角度,从投资的角度来看,首先,到提高推理的比例,云计算制造商的投入输出比逐渐清晰,预计超额销售利率会继续增加,从而提高收入利润率;其次,围绕橱柜的变化和对Bagong技术的投资的增加,2025年下半年的NVL72橱柜的核心是NVL72橱柜的上部,其中液体热量,铜连接和电力供应最大:第三,第三,围绕成本,欣赏成本和繁荣,注意供应链条这样的链条供应链条,以提供链条的供应链条,以供应链条。作为PCB和光学模块。 1)在散热方面:在散热方面,在未来几年内升级AI计算功率场方向的主要技术。 NVIDIA的单一功耗从700瓦到1200瓦和1400瓦不等,预计将来将重复2000瓦。此外,大型橱柜和超节点的出现以及热量资源的叠加进一步增加了散热的难度,因此,对热量的无视一直是将来继续重复和升级的方向。其次,目前供应商主要在台湾和美国工厂,例如Coolermaster,AVC,Boyd和Delta。中国大陆供应商的比例相对较低。随着预防热量从研发转移到大规模的大规模劳动力,中国大陆公司在扩大劳动力能力方面具有更大的好处。我们认为,预防热的一系列成分我有更多的中国供应商进入全球供应系统。 2)黄铜链接:黄铜线较旧,短距离数据传递,并逐渐启动了448G等新技术路线。今年扩张最快的公司将对Hinblackwell提出高速连接的高速连接完全满意。 3)电源场:高功率驱动增加的单W值。 PSU是服务器电源的AC-DC转换的核心。随着单个单元的功率密度的增加,单W的价格也在上升,显示出相同量和价格上涨的情况。随着新一代GPU解决方案(例如GB300),BBU和CBU逐渐成为标准,这可以解决稳定的电源和稳定电压的问题,并具有较大的负载波动。目前,5.5 kW电源进入大众劳动阶段。随着800 V HVDC数据中心电力电力基础设施的逐渐实施2026年下半年,电源将继续升级。辅助提高功率密度需求,UPS目前正在从600kW到MW,以应对电动密度需求的增加。将来,预计AIDC将完全改用由HVDC代表的完整DC电源解决方案,电压水平也增加到800V。综合和模块化产品(如巴拿马电源)逐渐成为主要制造商所青睐的主流,而更先进的固态变压器(SST)也开始了研究,开发和试验。 4)PCB:亚马逊,元,Google等的自发开发设计能力。虽然交付短途数据的要求将继续增加,但PCB继续升级并升级工业链的升级,并且铜色包装板已从M6/M7升级到M8/M9。随着PCB国内公司的全球全球部分,hinthis i从铜板开始,该行业的国内开花链生产,并进一步增加了高端树脂,玻璃纤维织物,铜箔等的国内部分。 5)光学模块:除了强大的计算硬件(例如GPU)的需求外,它还对网络边缘上更大的带宽也产生了需求。良好的网络性能可以提高计算效率,并显着提高计算强度水平。与传统的云计算网络相比,AI训练网络已从脊柱叶的结构变为脂肪树的结构,开关和光学模块的数量大大增加。随着通信数据量的增加,光学模块的速度要求也更高。 800G光学模块将在2023年的体积上升,并从2024年至2026年保持快速增长; 1.6T光学模块将于2025年开始发货,预计将在2026年增加。Al模块链链在数量和价格的繁荣周期中引起了吸引。从竞争风景的角度来看,国内光学模块巨头经历了比赛,与北美云制造商深深地束缚,并占据了全球光学模块市场的主要部分。在从未来技术趋势的发展中进行判断,我们建议它们专注于硅和CPO灯(共包装光学)。 6)高级包装和HBM:为了解决诸如迅速增加高级过程成本和“记忆墙”之类的问题,Chiplet Design +异源高级包装一直是平衡PaeSercise和成本的最佳解决方案。 Cowos开发的Cowos包装技术可以使计算内核和HBM的连贯性通过2.5D包装。因此,TSMC Cowos包中使用了NVIDIA A100和H100等AI芯片,分别配备了40GB HBM2E和80GB HBM3存储器。 TSMC是晶圆铸造厂的全球领导者,创建了一个高级2.5D/3D包装技术的全球基准。未来几年的包装市场增长将主要受益于扩大先进的包装制造。预计高级包装市场的快速增长将成为国内晶圆制造商以及包装和试用制造商的新增长驱动力。 7)国内计算电源链:一方面,它来自美国双BIS政策的连续收紧。从中级术中,增加国内芯片的比例是不可避免的趋势。考虑到国内筹码逐渐进入人工和分娩阶段,希望市场集中度会大幅度增加。另一方面,随着国内计算能力消费的迅速增长(通常,代币消费量每三个月都接近一次。.我们相信,国内增长率坡度更加陡峭,而国内芯片今年将需要一年的发展。 来源报告 研究安全研究标题:“新的AI时代:新疆和火灾的护理和开放” 出版日期:2025年7月24日 代理发布报告:CITIC Construction Investment Securities Co,Ltd.。 本报告中的分析师: Huang Wenao Sac No。:S1440510120015 sfc no。:beo134 Yan Guicheng SAC编号:S1440518040002 SFC No。:BNS315 Cheng Siqi Sac No。:S1440520070001 SFC No。:BQR089 Cui Shifeng SAC编号:S1440521100004 SFC编号:BUI663 他统治SAC编号:S1440517050001 SFC No。:ASZ591 Li Taoyang Sac No。:S1440516090001 Liu Shuangfeng Sac No。:S1440520070002 Liu Yongxu Sac No。:S1440520070014 SFC编号:BVF090 Jiajun Sac No。:S1440524110001 Man Yiran Sac No。:S1440518060002 Wang Zaicun SAC编号:S1440521070003 Xu Lin Sac No。:S1440522110001 SFC No。:BVU271 Xu Guangtan Sac No。:S1440523060002 aili yan sac编号:S1440519060002 SFC编号:BQI330 Yela Sac No。:S1440519030001 SFC号:BOT812 ying ying sac编号:S1440521100010 SFC号:BWB917 Yu Fangbo SAC编号:S1440522030001 SFC No。:BVA286 Yuan Qinghui SAC编号:S1440520030001 SFC编号:BPW879 Zhao Ran Sac No。:S1440518100009 SFC编号:BQQ828 Zhu Yue Sac No。:S1440521100008 SFC No。:BTM546 释放了03 GPT-5WAS,并恢复了计算强度。 ESIM吸引了市场的关注 2025年8月8日,GPT-5正式发布,带有三个版本:GPT-5,GPT-5-MINI和GPT-5-NANO。 GPT-5在数学,编程,视觉理解和健康领域外执行,数学AIME 2025(无工具)测试中的标记为94.6%,现实编码SWE验证的SWE基础验证的分数为74.9%,多模态理解中的84.2%的得分为84.2%,在46.2%中排名第46.2%,排名前面的希望。值得一提的是,GPT-5的幻觉大大减少了。启用Web搜索后,与GPT-4O相比,GPT-5错误率降低了约45%。在深思熟虑模式下,错误率降低了与Openai O3相比,D近80%。就令牌定价而言,GPT-5为每百万美元的投入令牌,每百万美元的产出代币10美元,而Mini和Nano为GPT-5的1/5和1/25。随着GROK4和GENIE3的最新发布,大型模型的重复加速了,其精度和成本降低。预计它将加速AI应用程序的爆炸式增长,并预计商业化也将加速,这有助于互联网制造商开发用于商业货币化的AI投资的封闭环节。我们建议您继续关注计算能力和AI应用程序的基础架构。 我们认为,北美连锁店和国内生产值得关注。在早期阶段,由于供应链的影响,国内AI计算能力基础设施投资的速度在一定程度上受到影响,但我们认为国内需求仍然很强劲,但短期节奏受到干扰。何Wever,外观ain扩大了计算强度差距,预计国内部署的节奏将恢复或加速。建议修复IDC,液体冷却,光学模块等领域,并在正确的时间移动。     报告的来源 名称研究名称研究:“ GPT-5已发布,不断推荐计算能力,ESIM吸引了人们对市场的关注” 出版日期:2025年8月10日 代理发布报告:CITIC Construction Investment Securities Co,Ltd.。 本报告中的分析师: Yan Guicheng SAC编号:S1440518040002 SFC No。:BNS315 Liu Yongxu Sac No。:S1440520070014 SFC编号:BVF090 Yu Fangbo SAC编号:S1440522030001 SFC No。:BVA286 CAO TIANYU SAC编号:S1440522080001 Fang Zixiao SAC编号:S1440524070009 Zhu Yuanzhesac No。:S1440525070002 04计算电源行业的高丰富度经常得到证明,而AOF升值可能有改进的余地 持续发展of人工智能的行业以及所列公司在相关工业连锁店的剩余绩效,通讯指数上升了7.56%,排名第一至31个申旺。扎克伯格说,梅塔(Meta)投资了一笔数十亿美元的资金,以生产几个大型数据中心来支持AI开发,以实现通用AI,以及预计将在明年使用的第一个。 7月18日,OpenAI宣布将在Chatgpt推出一名通用AI代理,该公司表示,该代理可以帮助用户完成各种基于计算机的活动。此外,根据NVIDIA的官方网站,NVIDIA将继续向中国出售H20,并宣布Abefore的推出,完全跟随GPU供中国出售。美国政府明确表示将批准这些许可证,并有望尽快开始。 计算电源链公司已发布绩效预测,以实现快速增长并继续证明AI计算能力行业仍然有些繁荣。目前,我们认为,大型AI模型的竞争和差异仍在继续,这意味着计算能力的投资可能会保持很高,因此我们继续推荐计算能力领域:首先,北美计算能力链的主要目标具有持续的高级增长和价值的较低水平;其次,两家公司期望享受溢出需求,并获得客户或分享的成功;第三,缺乏与流的链接;第四,以及GB300大规模运输,建议专注于1.6 t的光学模块和CPO行业的链条;第五,尽管H20供应已恢复,但NV将在中国推出新的GPU,但建议注意国内计算能力链。 我们认为,随着大型模型的持续重复,该行业发展为通用人工智能,并AI应用程序仍然值得期望。在Yushu IPO中,建议注意AI侧的芯片,模块和其他工业链。此外,我们继续推荐电信运营商,军事通讯和其他部门。 报告的来源 安全安全研究名称:“电力计算行业的高繁荣是连续的NCONFIRMS,并且赞赏可能有改进的余地” 发布日期:2025年7月20日 代理发布报告:CITIC Construction Investment Securities Co,Ltd.。 本报告中的分析师: Yan Guicheng SAC编号:S1440518040002 SFC No。:BNS315 Liu Yongxu Sac No。:S1440520070014 SFC编号:BVF090 Yu Fangbo SAC编号:S1440522030001 SFC No。:BVA286 Zhu Yuanzhe Sac No。:S1440525070002 05 GROK4表现良好,国内计算能力公司的性能正在逐渐实现 7月10日,Xai正式发布了Grok 4,与GBQA表现良好(博士问题SET),AMC 25(美国数学邀请赛),实时编码基准(编程cascapy测试),HMMT(哈佛 - 米特数学竞赛),USAMO(美国数学奥林匹克运动会)和其他试验。马斯克说:“现在,在学术问题上,Grok 4比每个主题的LevelDoctor都要好。”就定价而言,Grok 4的基本版本为每月30美元;重量为每月300美元。在随后的产品路线计划方面,XAI将于8月发布一种特殊的编程模型;多模式代理将于9月发布; GROK4性能的强烈改善和模型版本的快速重复与强大的计算功率支持密不可分。 Xai在美国田纳西州孟菲斯建立了超级计算中心“ Colossus”。它于2024年7月推出时配备了100,000个NVIDIA H100 GPU。2025年2月,GPU的数量翻了一番,达到200,000 200,000。 GROK4用于RL的计算资源与使用的D非常相似预先培训。 目前,我们认为,大型AI模型的kumetition和变化仍在进行中,这意味着计算能力的投资可能会保持很高,因此我们继续推荐计算能力领域:首先,北美计算机功率链的主要目标具有持续的高性能增长和价值的低水平低水平;其次,公司期望享受溢出的需求,并获得客户或分享独特的成功;第三,缺乏与流的链接;第四,随着GB300批量运输,建议专注于CPO行业的1.6T光学模块和链条。 报告的来源 名称研究名称研究名称:” 发布日期:2025年7月13日,机构发布报告:CITIC Construction Investment Securities Co,Ltd. 本报告中的分析师: Yan Guicheng SAC编号:S1440518040002 SFC No。:BNS315 Liu Yongxu Sac No。:S1440520070014 SFC编号:BVF090 Yu Fangbo SAC编号:S1440522030001SFC No。:BVA286 CAO TIANYU SAC编号:S1440522080001 Zhu Yuanzhe Sac No。:S1440525070002 06继续推荐AI计算能力,AI眼镜和电信操作员 最近,计算功率部门的表现良好。 Although stock price adjustments were performed by Deviceek at the beginning of the year and tariff policy adjustments, with the optimistic guidance of Overseas CSP manufacturer, the large model and various agents that brought about the explosion of the nthropic tokens, Openai and Aang ARR of companies such as the nthropic increased significantly, and the conformity of the future investment investment in computing the Ai Computing of the Ai -Computing P companity of the Ai power market Patto上升。 小米AI眼镜被释放,重40克,活电池为8.6小时,而全国补给后的价格为1,699元。同时,启动了单色/颜色电动色的可选版本。作为它的poRTable AI接口,小米AI眼镜支持密码,多模式,付款代码付款,控制和会议记录以及将来重要的AI重要终端产品之一。建议继续关注玻璃的智能供应链,包括整个机器,OEM,软件和与算法相关的目标。 工业和信息技术部宣布,从今年1月到5月,运营商的电信业务收入同比增长1.4%,一月至3月的年度增长率为0.7%,从1月到ABRIL的年度增长率为1%,这意味着4月和5月的电信增长率在4月和2.0%和2.0%和2.0%和2.7%相差。我们继续推荐运营商。 报告的来源 名称研究名称研究:“ AI计算能力,AI眼镜和电信操作员继续推荐” 出版日期:6月2日9,2025 代理发布报告:CITIC Construction Investment Securities Co,Ltd.。 本报告中的分析师: Yan Guicheng SAC编号:S1440518040002 SFC No。:BNS315 Liu Yongxu Sac No。:S1440520070014 SFC编号:BVF090 Yang Weisong Sac No。:S1440522120003 研究助理朱Yuanzhe 07继续对Stablecoin和计算能力行业保持乐观 对推理计算电涌的需求,国内外的主要制造商持续了计算的力量 Nvidia举行了2025年年度股东大会,机器人结合了人工智能,以创造新的万亿个市场空间。 NVIDIA于6月25日在美国举行了股东会议。首席执行官Janxun Huang宣布,它将将机器人列为仅次于AI计算的第二大增长引擎,目的是通过整合AI和机器人技术来为“物理世界AI”开放新的万亿级市场。为了实现这一愿景,nvidia h由于建立了全堆栈技术障碍:硬件层推出了新一代的机器人Chip Thor Soc,该机器人与工业机器人和自动驾驶汽车兼容;该软件层取决于Isaac的机器人平台,以包括GR00T人类机器人的主要模型,该机器人支持多模式理解和物理模拟。无论是自动驾驶还是更广泛的机器人应用程序,其培训软件都依赖于强大的NVIDIA数据数据,而完成设备将由其他专业芯片支持。在最前沿,NVIDIA将从芯片供应商转变为“ AI基础设施”平台提供商,建立AI工厂并成为AI行业的主要基础设施。目前,机器人和车辆业务占NVIDIA总收入的近1%,但是人工智能与机器人和自动驾驶的相结合将发展为市场领域的数万亿美元。 全球消费令牌的消毒显示爆炸增长,AI免费服务的繁殖大量繁殖成为主机。 Google将AI功能集成到搜索场景中,AI概述功能将其推断的代币消耗驱动到2025年4月/个月/月的480万亿美元,这是2024年同一时期的9.7万亿美元的50倍。此增长直接从其自由服务生态系统中受益45亿个用户。中国市场中的C端应用也爆炸了,bontedance的Bean Bag型号的平均代币呼叫量从2024年12月的4万亿美元跃升至2025年5月的16.4万亿,其中超过60%的消费来自Tiktok和Tututao的AIGC营销内容的产生。同时,企业级代理任务的升级大大增加了一次的消费:企业端单代理解决供应链,财务和其他方案代币的消费量达到100,000,并且用于复杂的方案或多代理协作,它可能超过100万个级别,比传统的Q&A代币消耗高约2个数量级。目前,国内外领先的制造商继续专注于计算电源基础设施的构建,以满足输送电力需求的激增。 ASIC市场空间期望继续增加,帮助主要的云制造商开发了自己的AI芯片,以满足计算电源需求的激增。预计全球ASIC市场空间将继续增加,核心驱动力来自云计算巨头加速自我开发的芯片,以满足AI计算能力需求的激增。马维尔在投资者交流会议上提到,与GPU解决方案相比,针对微软Azure定制的ASIC芯片大大减少,同时解决了NVIDIA芯片供应的差距。 Marvell提供基础计算能力SUMarvell预计,在上述云制造商的强劲计算电源需求上,Marvell预计数据中心的资本支出将超过2028年的1万亿美元,并将数据中心市场的规模提高到2028年的940亿美元,从2028年增加了26%的指导,在4月2024年的规模上增加了26%,请进一步提高数据中心的资本,并将数据中心的规模增长26%,并将数据中心增加到2024年的规模,这将进一步提高数据中心的资本支出,并将数据中心的规模增长到26%,并将数据中心增加到2024年的规模,将进一步提高数据中心的资本支出,这将超过1万亿美元支持芯片的XPU最高37%。 Marvell的竞争对手Broadcom还专注于ASIC市场。 Broadcom首席执行官在表演简报上说,Broadcom的人工智能收入在2025财年第二季度超过44亿美元,预计第三季度将增加51亿美元,连续十季度增长。明年XPU部署将大大增加,这超出了公司以前的期望。 报告的来源 名称研究名称研究:“ 25issue 24上的每周报告:继续选择关于稳定和计算电源行业的模仿” 出版日期:2025年6月29日 代理发布报告:CITIC Construction Investment Securities Co,Ltd.。 本报告中的分析师: ying ying sac编号:S1440521100010 SFC号:BWB917 Wang Jiahao Sac No。:S1440524030002 研究协助:张敏,李·丘汉(Li Chuhan) 08华为pangu大型型号5.5 华为云发布了新一代Ascend AI Cloud Service和Pangu Big Model 5.5 6月20日,在2025年华为开发人员会议(HDC 2025)中,华为云正式发布了Pangu Big Model 5.5,新一代攀登了AI Cloud Service,以与AI基础设施和大型模型技术取得了协调的成功。升级涵盖了五个主要领域:自然语言处理(NLP),多模式,预测,科学计算和计算机视觉(CV)。通过更改体系结构,它可以显着提高性能和能源效率,加深行业,气象,能源和其他情况,并加速了行业的智能变化。 1。新一代Ascend AI的云服务已完全推出 面对良好的培训和理解引起的计算强度需求的指数增长,传统的计算体系结构触及了性能瓶颈。这次由华为云发布的Ascend AI云服务通过CloudMatrix384超级节点体系结构实现了基本层的突破:这种架构创新地集成了384 Ascend npus和192 Kunpeng CPU,将通过Peer-toper MatsrixLink网络进行高密度的高速启动式启动式启动式启动式启动式启动式启动式启动式启动,以高密度的计算单位进行高密度的计算单位。是否基本的lustershemporthort效果已经达到了世代的跳跃 - 单卡infrerence吞吐量增加到2300个令牌/s,比传统建筑高几乎高4倍H充分发出了大型表现的感知。 在建筑设计方面,超级节点深入统计了混合专家模型(MOE)的广泛计算属性:1)创建了第一张“卡,平行”范式,单个节点可以为384个专家模块的合理性带来伙伴关系,从而降低了上面的交流; 2)支持“计算机级任务编排”,并通过动态资源切口实现“卡,多个任务”并发处理,这增加了计算能力的有效速度(MFU)使用超过50%,最初是妈妈在传统建筑中的妈妈妈妈妈妈问题的滴答作响。 对于具有100万亿个参数级别的培训场景,该系统支持级联弹性扩展-A 160,000卡计算功率群集由432 Super Node开发,并实现了创新的组合培训和促销计划:“ Day and Night push and Night pumper triep”和山谷。在确保白天同时发生的高度要求的同时,空闲来源用于晚间模型培训。 2。在NPL技术方面取得了全面的成功和升级身体功能 目前,Pangu 5.5主要由NLP领域的三个主要模型组成,尤其是Pangu Ultra Moe,Pangu Pro Moe和Pangu嵌入;以及一种很好的推理方法,结合了井井有条和缓慢的思考以及代理商的产品代理。 Ang Ultra Moe(718 Bilyong MGA参数)Ay Isang Malalim na Antas ant ang pag-iisip ng Quasi-trilyon,Batay sa pag-akyat全栈软件在pag-optimige ng pakikipagtulungan ng hartware,在ang unang lalalim na sarlang sarmang sangaig sharem strang sartem na gracted sharman naorm( Arkitektura在maliit na teknolohiya ng maliit na pagsisimula,ang matatag na pagsasanay ng 10+t数据ng token ay nakumpleto sa kumpleto sa kumpol ng cloudmatrix384。 EP组负荷损失的创新机制可确保256个专业MO的巨大合作Dules,并结合了“ MLA多级”和“ MTP混合精度训练”技术,以达到知识渊博的参考,数学计算和其他活动的国际切割水平。 Pro MOE(72B A16B)专门针对上升硬件定制,并通过分组混合专家算法(MOGE)来解决Imbalancecross-Chip负载。该模型优化了300I二人组推理芯片的体系结构拓扑,每次仅激活160亿个参数(16b),从而达到1529代币/s到800i A2芯片的最终效率,该效率比同一模型高15%以上。 SuperClue列表证明其代理商的工作能力与6710亿参数模型相当,这是商业实施的最佳解决方案。 嵌入(7b)轻质模型破坏了规模限制,并采用了“渐进的SFT微调”和“增强研究的多维研究”。就子而言,该模型比同一规模的模型更好JECT知识,编码,数学和对话功能为GIL DeploymentID提供有效的解决方案。 同时,华为提出了一种出色的认知解决方案,可以快速和缓慢的思维结合自适应,产生对快速和缓慢思考数据的贫困意识,并提出了两阶段的逐步训练方法,从而使Pangu模型可以根据问题的困难轻松地使用快速和缓慢的思考。通过在包含200万样本的感知数据中制定困难,这些样本基于层次注释问题的复杂性,产生了感知的动态机制,训练轻质歧视模块以实现难以判断毫秒级别的“人工规则移动”。 Dehuawei的Epdiver的代理人通过强化研究重建了获取域信息的开放途径,并根据7B轻量级模型获得了一级复杂的道路处理技能。这个产品CT建立了一百万级的合成互动数据集以模仿真实的搜索环境,使用渐进的奖励策略来优化多跳的推理能力,在知识的边界和结构化验证机制上深刻地结合了酌处,摧毁了传统的传统信息传统信息中信息的传统信息,以摧毁主要信息,以删除主要信息,以实现传统的信息。 128节点上升群群固定在延迟敏感延迟上,并且在此Paraan中删除了数据传递的延迟,因此单个任务可以完成10个跳跃的深链挖掘。目前,其令人不安的价值已在投资坦克和研究坦克,专利警告,医疗连锁评论和其他情况中得到了验证,并促进了AI代理商从实施工具到战略决策制定的演变Duties。 3。垂直模型深深植根于行业 除了许多NPL模型外,华为Pangu 5.5还涵盖了几种实现深厚行业加强的现场模型: 预测模型采用了行业统一的培训前体系结构的第一个三胞胎变压器,结合了来自各个行业(包括过程参数)的数据。表数据,APARA操作时间数据数据以及产品注意的图像数据经过同样编码,并在同一框架中进行了处理和最初培训,从而大大提高了大型预言模型的准确性,并大大改善了行业和情况的一般一般。云南的电解铝制工艺可帮助鲍瓦钢爆炸炉超过90%,每年节省2600万千瓦时的电力。 Ang Modelo ng pangitain ng cv ay nagtatayo ng iSang cross-modal na pang-industriya na na aklatan na aklatan na na na na na na na bilyong arkitektura ng na ganap na ganap na sumususuporta sa multi-dimensional at pangkalahatang pangitain na pang-unawa, pagsusuri at paggawa ng desisyon tulad ng mga imahe, infrared, laser point cloud, spectral, radar, atbp Bilang karagdagan, ang modelo ng pangu cv ay gumagamit ng mga cross-dimensional that generation models to build a pan-visual sample library这是工业型石油和汽油,类似工业经济的工业经济型工业运输以及煤矿,可极大地提高商业情况的可识别类型和准确性。促进Petrochina的次数次级子级别识别的效率提高40%。 学校模型支持深圳的“ Zhiji”,以实现气象学领域的区域估计,重庆的“人才12H”模型提高了大雨的准确性,而深圳的能量,风,风和代发电量与世代相传的产生相反,代浓度是偏心生成的一代生命力。f已经能够控制世代发电的怪异世代的一代世代产生,以使人们的怪癖成为能源生态消费的偏心。 Pangu的大型模型继续加深其在行业中的努力,并在30多个行业和500多个情况下实施。它发挥了大量的政府活动,财务,制造业,医疗保健,煤矿,钢,金属,自动驾驶,气象学和其他领域,并实现了行业的明智变化。 报告的来源 安全安全研究的名称:“华为Pangu大型型号5.5 出版日期:2025年6月22日 代理发布报告:CITIC Construction Investment Securities Co,Ltd.。 本报告中的分析师: Yu Fangbo SAC编号:S1440522030001 09 DeepSeek R1深度分析和计算功率影响几何形状 DeepSeek Publi她是一种深刻的理解能力模型。 R1-Zero采用了纯强化研究,证明了大型语言模型也可以通过仅研究加强来具有强大的推理能力。 DeepSeek-R1是对微调和加强研究的范围,以实现与OpenAI-O1-1217相当的结果。 DeepSeek R1培训和推理计算功率需求很低,主要是因为DeepSeek R1实现了优化算法,框架和硬件的合作。以前,训练前的侧缩放定律逐渐朝着更广阔的空间发展。在深层推理的阶段,模型的计算能力的未来需求仍然会显示出爆炸性的增加。对计算强度的适当需求对于改善人工智能模型的性能仍然很重要。 DeepSeek发布了Deep Deper模型的警告功能,该模型在性能和成本方面表现良好。 DeepSeek发布了两个大R1-Zero和DeepSeek-R1 M奥德尔斯(Odels)具有深厚的退休能力。 R1-Zero采用了纯强化研究,该模型的影响接近OpenAI O1模型,该模型证明,大型语言模型仅通过RL,没有SFT和大型Modelomaa,您也具有强大的推理技能。但是,R1-Zero也存在语言和语言混音差的问题。在进一步的优化过程中,DeepSeek-v3基库进行了两次微调和两次增强研究,以获得R1模型,主要具有四个阶段:开始的寒冷阶段,专注于学习学习,拒绝学习和全面学习。 R1在理解工作中表现良好,尤其是在Aime 2024,Math-500和CodeForces等活动中,取得了可比的结果,甚至超过了OpenAI-O1-1217。在DeepSeek R1-Zero模型中,采用了加固策略方法是GRPO StraTegy阻止了网络价值,增强了相对奖励的分组,并专门优化了数学推理活动,以减少计算资源的消耗; Kimi 1.5采用了刺激性研究方法进行部分控制,并同时使用陪伴模型,最短拒绝采样,DPO和Long2short RL技术来获得短链理解; QWEN2.5扩大了精细两阶段增强的管理改进数据的范围,以增强模型处理能力。 DeepSeek R1通过较少的计算能力实现高性能模型性能,主要是因为DeepSeek R1实现了算法,框架和硬件的合作。 DeepSeek R1对许多尺寸进行了许多优化。在算法层面上,它引入了专业的混合模型,多头隐含的关注和多句话预测。在框架的层面上,它意识到了T的培训他FP8混合精度。在硬件级别上,它采用了平行管道的优化方法。同时,跨节点专家的分布和通信的配置很好地配置为实现最佳效率调整。当前,大型模型行业处于从传统发展模型到深入评估模型的过渡阶段,对计算能力的一般需求逐渐从训练阶段转移到Paatras培训和左右的理解。通过优化的大量合作,DeepSeek R1在一定的开发阶段以较少的计算能力实现了高性能模型的性能,并且计算能力行业增长的长期逻辑并没有受到挑战。以前,训练前的侧缩放定律逐渐朝着更广阔的空间发展。在深层推理的阶段,模型的计算能力的未来需求仍然会显示出爆炸性的增加。 ADEQ对计算强度的UATE需求对于提高人工智能模型的性能仍然很重要。 报告的来源 安全安全研究的名称:“华为Pangu大型型号5.5 出版日期:2025年6月22日 代理发布报告:CITIC Construction Investment Securities Co,Ltd.。 本报告中的分析师: Yu Fangbo SAC编号:S1440522030001 10 2025关于通信行业中等投资策略的报告:保持股息,选择计算能力,请注意更改 一开始,由人工智能驱动的计算能力行业的持续繁荣应该是乐观的。但是观察微水平的变化 北美的四个主要云制造商在第一季度继续增加其资本支持,总计773亿美元,增长了62%。其中,亚马逊的资本支出在2025年第1季度为250亿美元,每年增加68%,微软的资本支出为214亿美元,一年 - 增加53%的增长,Google的资本支出为172亿美元,逐年增长43%,元数据的资本支出为137亿美元,一岁的年龄为104%。四个NA云制造商对2025年的资本支出指南保持乐观。Google,Amazon和Microsoft表示,在年初,资本支出指南保持不变,Meta将年度资本支出从上一季度的6000亿美元增加到640亿美元的640亿美元增加到640亿美元。在DeepSeek退出圆圈之后,市场认为,计算的力量可以加速偏转,并且资本支出可能很慢。但是,从北美云制造商的最新指导来看,这项投资仍然很强大,这反映了北美计算能力行业仍然非常发展。 国内CSP制造商的资本支出在本季度发生了略有变化,但保持了较高的投资强度。在2025年第1季度,Thealibaba的资本支出为239.93亿元人民币(购买物业和设备),增长了136%。与先前关于报告的年度报告相比,2025q1的资本支出可能低于投资者的期望,并有望与GPU芯片和交付的速度有关;腾讯的资本支出为275亿元人民币,每年增加91%,价值15%的收入,占据了“低青少年”指南的先前范围。它仍在对AI基础设施进行投资。尽管资本支出可能会在住宅之间发生变化,但总体上仍然保持高投资强度,这反映了计算国内计算的投资需求也保持了较高的繁荣。 大型模型应用程序的普及以及用户接触的频率的增加,LLM令牌的使用以惊人的速度增长。在最后2025年Google I/O开发人员会议上,Google说E出现的系统数量出现了,从去年的9.7万亿到今天的480万亿,增加了近50倍。目前,双子座每月拥有超过4亿活跃用户。最近,该公司在由兽人的火山发动机举行的部队电力会议上宣布,到2025年5月底,平均将令牌用于豆袋型号的平均使用代币超过16.4万亿元人民币,自从去年5月首次发布以来,它增加了137次。在解决复杂问题的过程中,代理商将进行大量的对话或内部思维,每次对话都会发展大量令牌。在各种应用程序情况下,对于代理商的快速kataas,令牌的数量预计将迅速增长。 但是,市场对短期AI发展状况有一些担忧。由于Openai的Chatgpt是2023年对计算强度的需求,因此CSP制造商的资本支出迅速增长了三年 - 相关应用程序已经很长时间没有出现。在没有商业封闭循环的情况下,资本支出确实很慢。但是,从长期发展的角度来看,AI仍然是整个技术行业发展的最大发展方向之一。通常,我们认为我们必须首先保持乐观,但要观察微观层面的顺序变化并及时进行调整。因此,从投资的角度来看,我们认为我们应该专注于投资于工业欣赏的发展和水平。工业链条要注意繁荣的变化。升值水平可以在某些条件下提供安全范围,而国内计算行业的链将不得不更加关注短期的性能。 北美连锁店是计算功率基础设施的主要领域,建议选择单个股票为支出我提供的 对高速光学模块的需求不断增长,而新技术(例如CPO)的渗透率加速了 自2023年Openai Chatgpt出现以来,人工智能驱动的需求继续迅速增长。 CSP制造商的资本支出具有快速的增长动量,并且对GPU,ASIC,HBM,开关,光学模块,铜电缆等的需求很强。 北美的四个主要云制造商在第一季度继续增加其资本支持,总计773亿美元,增长了62%。其中,亚马逊的资本支出在2025年第1季度为250亿美元,每年增加68%,微软的资本支出为214亿美元,同比增长53%,Google的资本支出为172亿美元,一年一度的增长43%,梅塔(Meta)为13.7亿美元。四个云制造商对2025年的资本支出指南保持乐观On和Microsoft表示,在年初,《资本支出指南》保持不变,Meta将年度资本成本从600亿美元提高到上一季度的650亿美元,至640亿美元,至720亿美元。互联网网络的高带宽,高质量和高可靠性可以确保计算功率群集处于良好的运行状态。人工智能数据数据的构建处于繁荣状态,这为光学模块产业链带来了很大的空间,并且主要的国内光学模块公司的性能不断增长。 明年的第一年,对800克光学模块的需求预计将保持强大,预计1.6T光学模块将迅速增加。在AI数据中心,越来越多的客户倾向于选择具有更大带宽的硬件网络。带宽越大,每一口气发热的成本越低,消耗较低,尺寸较小。希格H 800G光学模块的H增长率现在可以反映对AI带宽的紧迫需求。它的小批次始于2022年底,运输在2023年和2024年都显着增加。但是,AI对带宽需求没有限制。得益于高成本效益的网络,1.6T光学模块有望加快其应用程序。 NVIDIA使用ConnectX-8 SuperniC升级了网络平台的体系结构,这是第一张行业网络卡,其中包括PCIE 6.0开关和高速网络,该网络为现代AI的现代基础架构设计,可提供更高的吞吐量,同时简化系统设计。 共包装光学的CPO是一种包装技术,它与电动芯片/设备相结合,包括光学芯片/设备。 CPO包装通常是指两个方面:一个是光引擎(OE)中的PIC和EIC包装,另一个是光引擎和ASIC/XPU/GPU系统的级别。共包装光学技术的优势包括UDE降低了电力消耗,成本降低和尺寸降低。减少电力消耗:信号传递电路的距离大大缩短,并减少了电信号损耗。经过简化的SERD删除CDR,DFE,FFE和CTLE,降低了电力,可以节省30%+电力的消耗;降低成本:包装过程的成本较低,高融合引擎成本较低,同时节省了一些电气芯片成本,这可以降低25%+ Gastos的成本;减小尺寸:借助硅光学技术和CMOS工艺,共包装大大减少了光电引擎的独立包装方法的大小,同时实现了增加的密度I/O集成。 扩展是指通过增加单个节点的资源来提高整个群集的计算强度。标准单节点是八卡服务器。随着大型模型数量的显着增加,NVIDIA抓住了诸如GH200 NVL32和GB200 NVL72之类的机架产品。得益于高速NVLink互连带宽,可以将整个机架与“巨型GPU”进行比较。将来,预计扩大域将升级到Kilog和Wanka的水平。 2023年,NVIDIA宣布,生成的AI发动机NVIDIA DGX GH200现已放置在大众制造中。 GH200 IMPROVE通过NVLINK 4.0的900GB/s超大网络带宽功能来计算功能。服务器可能会采用铜线解决方案,但是服务器可以使用光纤连接。与传统的IB/以太网网络相比,GH200使用的NVLLINK网络网络成本比例已大大增加,但是由于网络占数据中心成本较低,因此通过提高网络性能来提高计算能力非常有效。 随着扩展领域的不断扩大,计算能力群的效率已大大提高以达到极大的满足改善了培训和推理需求。从NVIDIA和Broadcom产品来看,扩大带宽高于扩展。从2020年的Amere时期开始获取产品Nvidia的计算,扩大带宽为600GB/s,扩大规模的带宽为200GB/s,在2024年的Blackwell时期,扩展带宽为1800GB/s,规模输出的带宽为800GB/s。在通过Broadcom启动的OIO解决方案的ASIC芯片中,光引擎的总带宽为6.4TBPS,ASIC芯片和HBM正在使用Interposer。 Cowos,ASIC和OIO光学引擎的包装采用了2.5D多芯片包装程序。 Marvell推出了世界上第一个单渠道200G 6.4T CPO光学发动机,可用于XPU/Fabric/LPO产品,并可以为客户实现高度定制的设计。 CPO技术是一个系统的项目,涉及材料,设备,EDA,模块,设备等,并且需要很高用于设计,包装和测试的方法。因此,当前的行业状况主要由工业链中的巨型技术和供应商主导。 CPO/OIO的主要组成部分是CPO光学发动机,该发动机主要使用光学硅技术,因此两者的电源链也很重叠。参与CPO/OIO研发的主要制造商包括FAU,MPO,CW激光器,光学发动机,包装,晶圆工厂,PCB制造商等。我们相信,对各个子部门的良好好处也有很高的收益也有望继续对CPO/OIO领域的领先优势。光引擎是主要产品。尽管他们目前由NVIDIA和BRODCOM等公司主导,但人们认为,光引擎和光学模块的设计,制造和测试非常相似,但我们相信光学模块Companiesstill具有很大的好处。纤维纤维连接器产品的成本CPO/OIO产品中的FAU,MPO和纤维随机造成的预计将大大增加。 CW DFB激光是光资源的重要产品。在FR和其他长度方案中,长度的长度更加困难和更高的值。 我们认为,计算能力部门的当前繁荣仍然很高。尽管从代币的增长来看,市场的未来期望有所不同,但中型和长期的观点仍然乐观。在赞赏方面,我们认为,由于市场在未来有差异,因此未来收入预测也会有所不同,因此未来的欣赏并不是一定程度上参考的重要意义。在这方面,我们认为我们可以参考历史。记住在2019 - 2020年期间,5G和云计算叠加,再加上流行病带来的在线经济需求,也引起了光学模块行业要急剧上升,然后进入市场波动的阶段,并减少了将近2年半。 华为发布了CloudMatrix 384超级节点,性能出色,由簇和网络为单芯片差距形成 2025年4月,华为在云生态会议上推出了CloudMatrix 384超级节点,并宣布它是在Wuhu Data Center推出的。据报道,华为上升超节点在高速总线互连技术方面取得了重大突破,将公交车从服务器扩展到整个橱柜,甚至在橱柜中。在超节点范围内,高速总线的互连用于替代传统以太网。根据半分析分析的比较,华为Astron 910c的单卡计算能力约为0.3倍GB200,HBM容量约为GB200的0.7倍。但是,在群集形成之后,CloudMatrix 384的计算强度约为NVL72的1.7倍。 HBM容量约为NVL72的3.6倍。缺点是CloudMatrix 384消耗了更多的能量,系统功率的总消耗为3.9倍,而每个绒布的电力消耗为2.3倍,为NVL72。正如Ren Zhengfei在最近接受《人民日报》(People's Daily)的接受时所说的那样,中国的芯片行业可能会因“覆盖和群集”的技术道路打破,其计算结果与世界上最先进的水平相当。 NVLink和华为HCCS都是主要制造商,都可以开发自己的高速互连生态系统。自2014年以来,NVIDIA已将NVLink的互连技术引入其GPU。 NVLINK是NVIDIA开发的高带宽,低晶格的点对点数据传输通道。它的主要目的是连接到GPU,或GPU和CPU之间的通信。 Matapos ang halos sampung taon ng pag-iiba, mula sa nvlink 1.0 hanggang 5.0, ang bilang ng mga link ng nvlink sa GPU ay nagbago mula 4 hanggang 18. Sa paglago ng rate ng Serdes at ang pag-upgrade ng paMAMARAAN NG调制Mula Sa Nrz Hanggang PAM4,ANG单通道带宽AY NA-UPGRADE MULA SA 5GB/S HANGGANG 50GB/s,ANG BIDIRICTIONAL带宽NG Komunikasyon Sa Pagitan sa Pagitan ng Gpus ng gpus,达到了1800GB/s。华为HCCS是针对NVLink的基础测试标准,可以在内核,设备和簇上提供类似的访问系统内存的访问。 HCC采用了同伴到杂质,具有最高的单个链接56GB/s的带宽。 ASTEND 910B中的HCC采用了点对点拓扑,单个链接的带宽最高为56GB/s,集成的带宽为392GB/s。高速互连带宽对于分发模型的培训至关重要,也是Nvidia和华为的主要比赛之一。 随着具有GPU和芯片设计功能转移的公司,NVIDIA和HUAWEI都了解网络和计算,并且自然创建了自己的一致生态系统。但对于其他GPU制造商和网络设备而言,情况并非如此。为了与NVLINK竞争,UEC和Ualink等组织已经建立了彼此以产生计算网络生态系统的开放性能。对于诸如阿里巴巴和腾讯之类的互联网制造商,预计Ithey可以定义自己的计算集群体系结构,而不是一组完整的制造商培训簇以购买设备。例如,Tencent发布了自己的Star Mail网络架构,而阿里巴巴也开始开发自己的开关,因此开放的互连生态系统也需要注意。 Ualink1.0发行参考:支持1024加速器的连接,每个通道为200GT/s带宽。 Ualink(UltraAcceleratorLink)由AMD,AWS,Asteralabs,Cisco,Google,HPE,Intel,Meta和Microsoft在内的九家公司启动。它旨在定义高速,低晶格互连规范,以缩放AIPOD和加速器和开关之间的集群之间的缩放通信,这挑战了N在这种情况下,Vlink领导力和其他相互关联。 2025年4月,莫斯特兰Ualink1.0(Mostulan ualink1.0)支持每个双向数据速率最多200gt/s,信号传输速率为212.5GT/s,以适应误差校正向前和开销。 Ualink可以配置为X1,X2或X4,并且在运输和接收方向的情况下,四个通道链接可以达到高达800GT/s的速度。从发布标准到实际应用程序,还必须调整许多制造商的合作,因此预计将花费一到两年的时间才能真正适用于网络。我们认为,建议专注于移动芯片,网卡和其他公司进行网络和移动链接。 报告的来源 名称研究名称研究名称:“ 2025中期投资策略通信沟通沟通reportriya:坚持股息,选择计算能力,注意变化” 出版物daTE:2025年6月14日 代理发布报告:CITIC Construction Investment Securities Co,Ltd.。 本报告中的分析师: Yan Guicheng SAC编号:S1440518040002 SFC No。:BNS315 Liu Yongxu Sac No。:S1440520070014 SFC编号:BVF090 Yang Weisong Sac No。:S1440522120003 Wang Jie SAC编号:S1440523050003 CAO TIANYU SAC编号:S1440522080001 研究协助:朱Yuanzhe 11最终,AI爆炸预计是预期的,国内高端生产能力立即需要 1.2计算功率芯片迅速升级,高端生产能力在周期下积极扩展 1.2.1计算功率硬件平台开始转向新的解决方案,NVIDIA BLACKWELL和CSP ASIC的音量增加 GB200服务器进入了LARGE -SCALE质量制作的舞台,Blackwell取代了料斗作为发货的主要力量。在GTC 2024会议上,NVIDIA正式发布了新一代Blackwell Architecture AI芯片和基于此体系结构启动了一个新的机架AI服务器设计GB200。由于诸如液体冷却系统的挑战和泄漏等问题之类的问题,GB200系统的批量生产在2024年不足,并且整体开发使人们恢复了预期。随着NVIDIA与供应链合作将逐步攻击设计并解决关键技术问题时,Blackwell平台开始进入24末期的阶段,打开了Hopper平台更换。 NVIDIA近70%的FY26Q1(2025年2月至4月)数据中心业务促成了Blackwell平台。像Hon Hai和Quanta这样的主要供应商NG ODM通常希望GB200在第二季度2025年加速其增长,许多云服务制造商(例如Microsoft和Meta)正在逐渐投放新一代系统。 预计GB300升级计划将在2025年下半年开始工作。NVIDIA在GTC 2025会议上宣布,该会议希望THE GB300将由群众持有,并于2025年下半年推出。在288GB的视频记忆中,Hardwaresa在288GB的另一个视频记忆中,比192GB的GB200高50%。系统I/O也已完全升级,整个网络带宽已增加到1.6TBP,以满足更高争议的沟通需求。在性能方面,FP4精度的计算GB300 NVL72的推理的力量比GB200 NVL72高1.5倍。为了确保大规模生产的发展,NVIDIA返回到Bianca董事会的可靠解决方案,并优化了液体冷却系统和电源模块。 GB300将是GB200之后的另一台AI服务器增加。 自我开发的ASIC芯片不仅可以减少电力消耗,而且CSPS Master还将帮助AI基础设施的成本和供应链,并防止NVIDIA过度希望。因此,对CSP的自我发展的自发竞争。 Google一次UASIC AI芯片市场。目前,AWS,Meta,Microsoft和其他公司也已经开始积极投资ASIC AI芯片的形成。 AWS的ASIC AI芯片火车2于2024年第4季开始大规模劳动,而用这种芯片的杂音开始在2025q1大规模发送。作为AWS ASIC服务器的主要供应商Weiying已从其收入中受益匪浅。预计下一代AWS火车将在2025年底之前大规模生产。 1.2.2 AI将半导体推向新的增长阶段,高级流程和高级包装将继续重复 不同的过程是改善芯片计算能力的主要因素,AI计算功率需求的爆炸量已经对高级过程产生了强烈的需求。大型AI模型的开发对芯片计算强度提高了要求,将来更成熟的AGI模型所需的计算强度是当前GPT-4所需的10,000倍。对高功率计算的需求的认同是使用更先进的芯片,因为芯片工艺越高,电力消耗越低,并且计算速度越快。例如,2NM芯片的电力消耗约为16nm芯片的10%,在16nm芯片中的性能约为两次。 TSMC估计,与N3E节点相比,即将到来的N2P节点可以消耗30-40%的功率。 服务器需求将超过智能手机,将成为高级流程的主要驱动力。从历史上看,智能手机的迭代更新促进了芯片流程的持续发展。但是,随着对AI应用程序的计算需求的增加,服务器成为计算能力的主要中心,并且追求高计算能力已成为对高级Proseso的需求。 AI芯片消耗更高的强度,需要较小的尺寸。因此,对高级AI芯片流程的紧急需求将使服务器需求成为最大的驾驶F高级过程的orce。 Sumco估计,由于AI服务器运输的强劲增长,服务器对高级流程Wafers的需求最早将超过智能手机。 2025年是大规模劳工和2NM交付的第一年,TSMC已收到许多客户的订单。 TSMC,三星和英特尔有望在2025年到2025年进行2NM流程,但英特尔和三星目前用于生产自己的产品,并且尚未收到第三方客户的大规模生产订单。英特尔的18A将使Panther Lake(PC CPU)和Clearwater Forest(Server CPU),三星的SF2可以接收许多客户订单,包括AMD的Venice(Server CPU),Apple的A20/A20 Pro和M6系列,以及高通公司的第三代Elite。此外,微软的AWS,Google和未来的ASIC AI芯片可能会在2NM节点中选择TSMC。  高级流程面临物理障碍和瓶颈,并且高级包装已成为改善芯片的重要解决方案形式。 AI的良好发展导致计算强度需求的爆炸性增长。但是,尽管半导体过程的规模进一步撤离,但综合电路制造业面临的挑战正在增加,摩尔的定律降低了,单位晶体管的成本却没有下降,但使用高级过程的成本也大大增加了。通过异质NA的整合,晚期包装与许多高密度的芯片相关。一般绩效的改善不再取决于单个芯片的支持,并且大大提高了产量和降低成本,这成为提供系统水平改进的新途径。 COWOS是一项高级包装技术,在HPC和AI计算字段中广泛使用。 Cowos是由TSMC推出的2.5D包装技术。重要的是,它必须将许多芯片(例如逻辑芯片 + HBM)放在硅内置器上,然后用底物包装它们。在2012年首先应用于Xilinx的FPGA。从那时起,Nvidia,AMD,Google和其他制造商等制造商的AI芯片就使用了A100和H100等COWO。如今,Cowos已成为一种2.5D包装技术,该技术已被广泛推导在HPC和AI计算领域。其中大多数使用HBM高性能芯片,包括大多数使用Cowos技术的初创公司的AI培训芯片。 AI的持续高繁荣导致了对Cowos的不断增长的需求。自2023年第一季度以来,对AI服务器的需求正在增长,使TSMC的Cowos生产能力较短。一方面,TSMC将能够将过程外包在细分市场中,另一方面,它将大大扩大Cowos制造的能力。 HBM 3D堆叠可改善内存性能,并广泛使用AI芯片。随着数据爆炸,计算速度的记忆墙的影响变得显而易见。为了减少记忆墙的影响,增加NG内存带宽一直是CHIP内存焦点的主要问题。例如,以2D到3D NOY的闪光为生,滚筒还形成2D到3D技术,HBM作为主要产品代表。与传统的鼓不同,HBM是一种3D结构,它使用TSV技术来移动一些DRA。死者被堆叠以产生立方体结构。与传统记忆相比,HBM具有较大的存储密度和更高的带宽,这通常成为对数据中心的AI芯片的常见调整。 预计到2028年,全球先进的包装市场规模将增加到786亿美元,从2022年到2028年,CAGR将达到10.0%。根据Yole Data,2022年,高级包装账户为47%。估计到2028年,高级包装市场的比例增加到58%,尺寸约为786亿美元。 2022年2028年的复合年增长率约为10.0%,高于传统包装市场的2.1%,6个.2%的总市场。 晶圆铸造厂的领导者TSMC为高级包装技术创建了一个基准,传统的包装和试用制造商也加速了它们的变化。 TSMC在高级包装方面获得了巨大的利润,其技术布局也进入了一个密钥节点。未来的投资规模将继续增加。在OSAT制造商中,Sun Moonlight Vipack高级包装平台包括六个主要技术,Aiku推出了五种高级包装解决方案,包括FCMCM(FLIP-Flop Multi-Chip模块)和2.5D(TSV)。中国长期高级高级专门致力于癫痫发作,粉丝出口CSP晶圆级和其他高级包装。 Toffu Microelectronics在2.5D/3D高级包装中保持国内最佳位置。沉技术着重于包装和存储测试领域,并着重于Flip-Chip技术和POPT堆叠技术的研究和开发。 1.2.3记忆带宽becoMES计算能力和HBM需求紧急且迅速迭代 全球HBM(高带宽内存)技术提出了“领先国外和加速国内追赶”的双轨模式。海外市场由三个巨人SK Hynix,三星和Micron:SK hynix垄断,首先排名第一,这是使HBM3/3E(市场份额为52.5%)的优势,而12层的HBM4收益率超过70%,并且已成为70%,并且是质量制造的2025;三星促进了HBM3E的产量并促进HBM4的研发,并在2024年通过AMD MI300系列的验证后,数量增加。 Micron专注于HBM3E质量生产,但容量的扩展略有捕获。由于地缘政治催化,国内HBM行业进入了加速阶段。 从HBM处理过程的角度来看,DRAM颗粒是定制的DRAM颗粒,该过程的难度在于包装和TES腾。 TSV,底部填充(MR-MUF)的大规模反射,自我调整,混合键合和其他过程极大地影响了HBM的性能和产量。 。在用TSV产生晶圆后,通过封装形成上方和下方形成微圆柱,然后连接这些凸起。由于TSV允许垂直连接的凸起,因此可以实现多芯片堆叠。首先,有4个NA堆栈使用TSVlayer键合,最终添加到8层中。最近,一项技术可以堆叠12层,而SK Hynix在2023年4月开发了12层HBM3。而TSV Flip Flip芯片键合技术通常使用基于Hot Press(TC-NCF)的DI构建膜,而SK hynix使用MR-MUF工艺可以减轻压力stacker和使用压力堆叠压力和GARNE自我堆叠的压力和GARNE自称。这些功能使SK Hynix能够在全球开发第一个12层HBM3。 。 MR-MUF是一个更好的过程,并且提供有效的热量散热,而不是在每个芯片后使用薄膜材料钉。当前,SK Hynix主要使用MR-MUF工艺生产HBM2E/3/3E,并在三星电子和Micron之前进行此操作,该工具主要使用TC-NCF工艺。 MR-MUF的过程需要使用液体环氧树脂(EMC),该树脂目前仅适用于日本各地的NAMIC。除EMC外,HBM包装还需要用于FC工艺的底填充胶,将PSPI用作硅插孔器上的RDL重新激活层,还需要诸如IC载体板,DAF,Solder Ball之类的材料。 。在此过程中,将热量施加到芯片上,从而导致相关的凸起在正确的位置融化和硬化。 。因此,芯片可以高速运行,例如单个芯片。 ②通过直接与铜键合,可以大大降低颠簸的间距。目前,使用焊料时很难实现10个UM间距。但是,直接的铜到青铜键可以将间距降低到小于1UM,在Gathat的弹性增加中y在芯片设计中。 ③冷却功能。 ④上提到的薄粘合剂层和细小的间距会影响包装形状因子,这可以减少包装的大小。当前,混合键主要用于单层粘结或两个芯片面对面堆叠。 SK Hynix在2022年使用杂化键完成了8层HBM2E的堆栈,并形成了杂化键,以增加密度,高堆栈HBM。 需求供不应求,HBM继续挤压了制作能力。从需求方面,云计算制造商将向AI基础设施投资更多的资本支出。 2024年,北美CSP资本支出的增长率为55%,主要由AI驱动。对传统服务器的需求通常是相同的,同比增加64%至25q1。预计到2025年,CSP资本支出将继续显着增长。计算强度需求的快速增长以及快速升级数量和研究Ting Power Computing卡最终将带来计算功率芯片和HBM需求的快速增长。结合外国制造商海外和咨询机构,HBM市场规模在2024年达到160亿美元,同比增长300%,预计2025年将达到320亿美元,一年一度的增长100%。从供应方面,HBM供应仍处于短供应状态。随着传统的DRAM库存变化,HBM生产能力的压缩仍然是由于对AI服务器的需求强劲。 HBM快速迭代,HBM4即将进入大规模劳动。在建筑中,HBM3E将于2025年占主导地位。根据SK Hynix的说法,其HBM3E收入将在2024年的HBM收入中超过一半以上。12层HBM3E供应将超过8层产品,并且将12层HBM4设置为25H2。 (1)HBM3E:三个主要制造商随后推出了12HI产品。预计将在NVIDIA的B300A(B200A Ultra)和B300上使用12HI HBM。。 1.2.4模型的推理时期到了,ASIC的需求爆炸了。我对ASIC服务器PCB制造商感到乐观 推理的原因将会到来,推理将是对AI计算能力需求的新推动力。 NVIDIA首席执行官詹森·黄(Jensen Huang)在2025年在GTC的主题演讲中指出,尽管对模型培训的需求正在减慢,但与推理模型中的现代深度共和国的结合,AI推理的时代将到来。与传统的AI开发相比,主要介绍了语言模型和聊天机器人,专注于开发文本和图像内容,AI代理可以理解任务,执行复杂的推理,制定计划并独立执行多步骤步骤操作。由于AI代理解决了复杂的问题和任务衰减的每个步骤,因此需要使用推理模型,因此推理将是推动新AI阶段的主要力量。 低成本是爆发的必要条件复发,北美CSP制造商促进了ASIC的研发速度。与移动互联网时期相比,潜在的逻辑发生了巨大变化。理解系统的第三个几乎与客户使用量相关联,因此边际成本非常高,大多数成本是计算强度的消耗。因此,在大型模型中,可以降低推理成本的制造商,而预期胜过最终成功。目前,除了持续使用NVIDIA GPU进行模型培训外,北美的四个主要CSP制造商还促进了自己的ASIC产品的开发。一方面,因为Nvidia的GPU价格昂贵,并且硬件投资成本太高。另一方面,ASIC的自我发展可以针对特定需求进行优化,也可以针对特定应用设计。因此,控制能耗或战俘ER管理将更加笨拙。此外,从供应链安全的角度来看,还避免了计算源来自GPU制造商(例如NVIDIA和AMD)的风险。在相同的预算下,AWS的Trainium 2可以完成比NVIDIA的H100 GPU更快地理解的任务,并且价格比增长了30%至40%。计划在2025年底之前推出的Trainium3计算性能增长了2次,预计将提高能源效率40%。在Llama-3推理方案中,Google的TPU V5芯片的计算单元计算成本为70%,而H100的计算芯片为70%。根据IDC数据,在Microsoft Azure开发了自己的ASIC之后,硬件采购成本的比例从75%下降到58%,消除了长期的被动谈判困境。 在Google Cloud Next25会议上,Google推出了第七代张量处理单元(TPU V7)Ironwood,这是Google最佳性能最高的ASIC芯片,迄今为止是ASIC芯片ND也是第一个专门为推理设计的加速器。每瓦的铁木性能高是Google去年发布的第六代TPU Trillium的两倍,其HBM容量和双向带宽大大提高。 Google ASIC服务器计算板上有四个Ironwood TPU,与TPU V5计算板的先前体系结构相同。 Broadcom和Marvell对ASIC市场需求都很乐观。 Broadcom和Marvell是ASIC定制领域的主要参与者,两者都占据了AI自定义芯片的70%以上。 Broadcom的自定义ASIC芯片广泛用于DATA中心,云计算,高性能计算(HPC),5G无线基础架构和其他字段。根据Broadcom的最新财务报告,该公司的AI芯片收入在2025Q1的价格为50%,增长了77%,而ASIC相关的收入成本为60%。 Broadcom认为对XPU的需求将继续E增加。该公司预计,ASIC收入比例将在2025年下半年继续上升,主要是因为推断需求模型的增长会加速AI芯片业务的增长。 Marvell的ASIC业务也已成为该公司强劲增长的主要动力之一。 2024年12月上旬,Marvell与AWS达成了五年的战略合作协议,并帮助亚马逊设计了自己的AI芯片。在制作大量AWS芯片时,达到了Marvell,在2025年第1季度获得了18.95亿美元,增长了63%,创造了很高的记录。 Marvell还预测,随着对AI计算的需求增加,公司中ASIC的比例预计将增加25%,预计数据中心的ASIC市场规模将在2028年增加到429亿美元。 中国的ASIC服务器增长率超过40%。将来,在中国服务器市场中,一些GPU高端产品可能需要提供休息犯罪,并且存在计算强度差距。此外,为了降低成本并更好地适应自己的业务状况,互联网上的领先互联网公司还增加了部署的自我开发的ASIC芯片服务器的数量。 IDC预测,中国加速市场的规模将在2024年达到19美元,而与2023年相比,年度增长了87%。其中,GPU服务器仍然占主导地位,价格为74%。到2028年,中国加速计算服务器的市场规模超过了550亿美元,在这里,ASIC加速服务器市场将近40%。 随着云制造商积极形成ASIC芯片,ASIC正在成为AI服务器市场中与GPU并行的重要架构,这进一步推动了对高端PCB的需求。 Jinxiangdian是世界上最大的PCB服务器制造商,也是ASIC服务器上升时PCB公司最大的受益人。 Jinxiang电力产品进入四jaj北美的CSP,覆盖HDI,厚厚的铜板等。UBB和OAM(加速器模块)。根据25q1 Fashuo信息会议,该公司在25q1的25q1纪录中获得了29.52亿元的收入,其中服务器收入比例继续上升到72%。在传统服务器市场中适度恢复的后部,高性能的核心Jinxiang电动增长源自云制造商的ASIC服务器PCB订单。根据公司的交流,2024年的AI产品比例达到20%,将来将继续增加。 根据半溶解数据,第二代亚马逊推理芯片Trainium2在计算托盘上使用两种trainium2火车,即使用两个OAM,下面有一个UBB板。 UBB使用带有M8规格的铜包装材料的28层高多层板,OAM是M6/M7的三阶HDI。在更改下一个GeneerTrainium3 Asso的过程中ciation,层,OAM层和UBB订单的数量将进一步改善。 在2025年的最前沿,除了AWS,在新的Google和Meta产品中,ASIC服务器的UBB数量还将提高到30层以上的董事会,这将加剧劳动力的困难,这将进一步促进ASP的改善。 ASIC Server PCB将激发数量和价格上涨的阶段,还将推动对高规格(M8等)铜板的需求。 报告的来源 安全安全研究名称:“ 2025年度投资策略报告:期望末端AI爆发,高端国内生产能力将立即需要成功” 出版日期:2025年6月17日 代理发布报告:CITIC Construction Investment Securities Co,Ltd.。 本报告中的分析师: Liu Shuangfeng SAC许可证Numero:S1440520070002 Jiajun SAC编号:S1440524110001 Sun Fangfang SAC许可证号:S1440520060001 张赫肯SAC许可证号:S1440522050001 GUO许可证号:S1440520070009 Wang Dingrun SAC编号:S1440524060005 他Yuling SAC编号:S1440524080001 12个推理在舞台中间,自主和受控趋势,代理和多模式加速度移动 1。计算能力:计算能力出现推理的拐点,对国外增加计算能力的变化的重要性以及独立和控制的向上趋势。 1.1计算电源投资的核心:推理在舞台中间移动,并开始增长的新增长 三个主要增加有助于加快对推理和计算实力的需求。 AI计算能力的消耗开始从实践到推理,并带来了大幅提高计算强度。探索背后的需求不断增加,主要来自三个方面:首先,主要的互联网公司加速了人工智能和起源的集成企业。例如,Google搜索于今年5月21日正式带来了AI模型,并逐渐推出了美国市场。据认为,全球的年度Google搜索量是5万亿次以上,认为一个答案是2,000。代币,此功能将带来平均阳光消耗的27万亿代币(超过当天的日子 - 到16万亿代币的双子座型号的日期消耗)。类似的情况,例如Doong Search和Weibo AI Smart Search,ANG搜索功能开始从普通服务器转移到AI服务器,并重新设计所有搜索体验。类似的视频编辑和编辑AI的保存;第二个是整合代理,深入思考和推理。通过合并两者,实施代理工作的准确性得到了极大的提高。代理令牌实施该任务的平均消费达到了100万亿美元的命令,这大大超过了AI的消费量NGLE问题和回答令牌,并且可以在更开放的情况下扩展,例如显示“以您更好的方式使100元人民币”,同时,许多代理在情报小组中工作,您正在慢慢启动小组智能。商业的。过去,代理商可以实现复杂和多步活动。代理商的普及将带来对计算能力计算的需求的大幅度增加;第三,多模式。在今年有了显着改善的多模式产生的照片和视频的质量中,今年AI营销内容的比例已大大增加。根据“ 2025年中国广告大师营销趋势调查报告”,“超过50%的广告商在开发创意内容时使用AIGC,而AI营销内容以超过10%的速度使用”,并且一分钟视频的代币产生的产生主要按10万亿代币为顺序。目前,多模式模型已开始输入T他的快速商业化阶段。例如,Kuaishou Keling在4月和5月的连续两个月内支付了超过1亿元人民币。变化的跨性模式渗透导致计算强度需求的显着增加。 期待2025年和26年的下半年,我们认为在计算能力领域的投资分为两类:海外经济投资和国内独立控制: 海外经济投资:1)请注意推理的比例增加:确定扩大TSMC Cowos的产量的速度,26年内ASIC芯片的边际变化是最有义务的,而NVIDIA的增长率仍然很高; 2)专注于增加橱柜和新技术投资的变化,NVL72橱柜在2025年下半年的核心是NVIDIA NVL72橱柜的上部,其中液体热热,铜连接和电力供应正在发生变化。冷却将是O在接下来的几年中,NE OFBASIC指示在AI计算能力领域升级技术。目前,供应商是台湾主要的工厂。考虑到中国大陆的公司对扩大劳动力能力有更大的好处,我们认为,由液体冷却的一系列预防热预防领域的部门将进入全球供应系统。就铜链路而言,铜线在交付短距离数据和新技术路线(例如448G)方面具有更高的成熟度。今年扩张最快的公司将完全享受布莱克威尔带来的高速连接的发展。电场具有重要性,例如氮化甲酯等机会; 3)在预期的差异和经济条件下建立,我们对PCB非常重要。 Nvidia,Amazon,Meta,Google和其他相关需求高度发达,我们已经依赖于Of增加了国内生产的升级比例。某些领域的库存开始下降,价格具有一定程度的弹性。 国内独立控制:一方面,它源于美国BIS政策的持续收紧。另一方面,随着国内计算能力消耗的迅速增长(兽人的常见示例,代币消费近几乎每三个月两次,而在5月底的消费量则近两次,而在5月底的消费量则有16.4万亿个令牌),我们希望国内云制造商在平均每天的日常消费(即日至3000万美元)的平均每日消费时会感受到计算能力,以达到3000万美元的计算能力计算的能力。我们认为,国内增长率坡度更加陡峭,而国内筹码将需要今年的一年发展。 1.2云计算:数据飞轮快速运行,云计算继续以高繁荣继续 自AI业务代币消费迅速增加以来,自Chatgpt于23岁时出现以来国外的ERS开始了高高的资本支出投资周期,并继续增加计算能力在培训和理解中的投资,并且模型绩效迅速迭代。同时,自12月24日以来,随着DeepSeek V3和R1的逐渐发布,它在OpenAge -O1任务中达到了与国内模型的主要等效物,并触发了访问流量的迅速扩展(由DAU(APP)16.95 Millingsun -sun -sun -Sun -Sun -Sun -Sun -Saint -saim Active使用疑问)。随着DeepSeek带来的成本(FP8混合精度框架)的成本的持续发展,输入/输出模型的成本迅速下降,并且可以大规模推广AI应用程序。作为培训模型/苛刻需求快速扩展的直接受益者,云计算行业已经进入了持续的高繁荣周期。 在当前时间,云工厂的收入增长率和运营利润率(或EBITA利润率)S CAPEX投资的远期指南。自2023年以来,随着规模法在变化架构的持续有效性,所有主要制造商都对模型培训进行了许多投资。考虑到国外的制造商目前尚未衡量资本支出的投资,而边界本身的模型边界尚不清楚,25年前,Capex本身被用作计算强度实际需求的前瞻性指南。但是,在过去的25年中,随着LLM模型逐渐接近上限的能力,对模型培训的需求拒绝了,并且推理开始成为找到资源的基本要求,CAPEX输入输出的比率逐渐进入了测量阶段。在此基础上,云业务增长率和运营利润率的趋势已成为计算强度需求的直观完善,也是对资本支出随后投资的主要确定。 以阿里巴巴云为例,24第2季度是打开阿里巴布决策制作云投资的重点。自2022年以来,由于主要互联网公司的迅速业务,阿里巴巴云收入增长率迅速拒绝。同时,随着云资源库使用率的下降,运营利润率相应拒绝。在过去的23年中,阿里巴巴云的主要方法已通过增加云中公共服务的比例来增加收入利润率并产生AI加速收入,从而成为阿里巴巴云的主要方法。在阿里巴巴的云增长率上,事实证明是在时间的最前沿(AI的业务有助于巨大增长)的正面负面的,GPU业务需求和盈利能力首次显示。因此,从24q3开始,资本支出对阿里巴巴云的投资迅速上升,并在绩效交流会议上宣布了3.80亿元人民币的三年资本支出计划24q4。 目前,国内云工厂处于资本支出投资的早期阶段,并保证短期投资。在国外确定制造商,云业务的发展通常有三个阶段,而我国的云计算业务仍处于第一阶段。以微软为例,在23Q1处,它领导了Capex的大规模投资,以与OpenAI模型的快速发展合作,并从AI的快速业务发展中受益,收入较高,该公司的Azure运行利润率从23q1到23q3;然后,高资本支出开始逐渐在耗尽方面施加压力,开始于23q4,相应的微软也减少了员工的脑电图,希望通过控制控制来维持操作率的持续上升趋势;将来,在加强损失压力时,资本支出进入了一个坚实的周期。 目前,阿里巴巴CLOUD收入分为内部相关交易和外国企业。 AI的内部主要支持Quark,Dingtalk,Gaode和其他称Thyi/Deptseek模型的人。外部收入的AI业务包括三类:GPU租赁,MAAS服务和模型服务(Bailian和Pai平台)。由于近年来模型侧的价值在云中逐渐内化(MAAS的价值已成为IAS),因此GPU的雇用已成为公共云服务的一部分的更高毛利率。大量资本支出的本质是,高分利润率GPU租赁服务的比例正在迅速扩大,从而促进了AI业务规模的快速增长。在以24q2开始的想法下,AI业务已成为支持公共云增长的主要驱动力。 24q2收入增长的一半以上来自AI的贡献,并将继续保持一年将来的年增长超过100%。 与传统的CPU机会相比,GPU机会在中期内将提高投入输出的效率。一方面,在传统的公共云业务模型下,云工厂主要提供诸如计算,网络和存储之类的均匀服务,这些服务很难在客户体验上产生重要的差异,并且更多地依赖于规模效果。在GPU租金期间,客户需要主要关注培训和推理,维护智能计算平台的操作和能力,并允许自动化和故障成为竞争优势的主要区别。 “有效的培训时间”是计算各种情报业务表现的关键指标。例如,阿里巴巴云(Alibaba Cloud)在今年4月强调说:“在Wanka级的超大训练中,Lingjun GPU集群的有效训练时间在一个月内可能超过93%。”有点说Dachang云平台具有更强的稳定性。另一方面,在提供GPU租赁服务示例的同时,Dachang还将提供培训服务/构思服务,并通过安排计算和通信的能力来实现卓越仪的多倍改进。在两个好处中,雇用GPU,例如大型制造商具有一定的高级功能,并且具有输入输出比而不是传统的CPU机会。 从长远来看,通过提高超销利率,GPU机会将继续保持高利润。在过去的十年中,公共云的价格已经下降了几次。价格降低能力来自分享运行规模经济(以及自我遵循的关键技术)的成本,但另一方面,这也来自CPU超额出售功能的持续增强,这大大提高了单个CPU示例的实际能力,因此,收入的余额可以实现。在连续背景的背景下进行ved;目前,阿里巴巴云的GPU租赁业务主要基于调整模型,而由Tensorflow和Pytorch等智能应用程序开发的应用程序通常覆盖完整的GPU卡,并且不能过度使用它。但是,随后的理解需求显着增加,GPU虚拟化是不可避免的趋势。增加GPU机会的超销利率将进一步提高GPU租赁业务的EBITA利润率,并为随后的价格降低提供空间以吸引客户。 1.3液体冷却:冷却液体加速渗透,并在大陆供应链中出现机会 计算功率的高需求驱动了单个计算功率中心的功率密度增加,而PA是必需的。传统的空气冷却系统通过感冒适应了更高的预防热量要求资源更接近热源或冷通道/热通道的结合。随着机架密度上升到20kW以上,已经出现了各种液体冷却技术,以满足高热密度柜的热量要求。此外,与冷却相比,预防热加热更绿色,碳更少。 PUE(功耗的有效性,数据中心的总能耗/IT设备的实际能耗)是计算功率中心性能的最常见指标,它也是衡量行业评估功能中心绿色性能的关键指标。更接近的值为1,这意味着计算功率中心的绿色水平较高,并且预防加热加热的最高为1。从角度来看,液体冷却技术主要分为技术类型,例如板块的冷型,浸入类型和液体冷却技术的喷雾。其中,冷p晚期液体冷却技术是冷却液体的最成熟和广泛使用的解决方案。 以NVIDIA GPU芯片为例,单个芯片和机架的热功率消耗迅速生长。 NVIDIA和NVL72机柜热设计功率TDP(热设计功率)的B系列芯片得到了极大的改进:H100的最大TDP为700W,B200的最大TDP为1200W,增加了几乎70%; 100 Bawand架子的悬挂式TDP约为40kW,B系列机架的TDP约为120kW,强度的增加约为200%-500%。 H100机柜主要使用热冷热,但是由于空气和低空使用冷却的低热量预防效率的限制,GB200 NVL72机柜使用热冷冷热散热。水冷热的耗散可以提高碎屑散热的效率,极大地提高了计算密度,从而减少了芯片连贯性之间的延迟,并进一步降低了模型训练成本。 这热冷却热量耗散的主要成分:热界面材料TIM(直接被GPU覆盖),集成的热量IHS(连接到TIM),多维的两相等温度元素的3 3DVC(由热管和热锌组成,放置在IHS中),并放置在服务器的前或最终。 3DVC名称来自1维热管,2维热锌,以及3维热管和鳍空腔间交流。 VC(蒸汽室)源自液体蒸发和冷凝的过程。就气冷热的原理而言,芯片的热量通过蒂姆传输到IHS,热量进入3DVC以蒸发蒸汽中的3DVC流体,蒸汽向上传输到热管上方的多层热锌。服务器前端和后端的风扇和数据中心的空调使蒸气允许液体到液体,并且该过程自行重复。因此,防风热的预防由两个部分组成:每个chip上方的多维两相均匀温度元件,该温度元件,为完整的服务器加热服务器提供服务的风扇和数据中心的空调。 热冷热的耗散对散热和空间使用的能力有很大的好处。水的热容量是空气的4000倍,导热率是空气的25倍。随着温度变化,水可以储存更多的热量,并将热量移至空气中。 GB200水冷却托盘设计的设计使用冷板和冷却液之间的良好热交换机构,以均匀地移动芯片在冷板上产生的热量。在以高流量为单位的冷板后,冷却液可以迅速去除热量并均匀地失去热量。在使用空间方面。气冷HGX H100计算平台具有TIN6U(1U = 4.445厘米)的高度。带有空气冷却设计的HGX B200需要10U空气冷却的等式满足散热需求的UIPMENT。相比之下,使用DLC的托盘高度仅为1U。 8个GPU芯片也被删除,HGX H100高6U,HGX B200需要10U,而GB200 NVL72仅需要2个计算的托盘才能具有总2U高度。空间的使用大大改善。 冷冷却板可能需要70%-75%的热量。冷板冷却通过循环管道中包含的冷板冷却液体从芯片和其他热量成分中传递出热量。冷却液会加热并将其移至主电路,冷却在冷却系统中,最后将热量释放到系统中。冷液体冷却板可以分为两部分:主(外部)循环和次级(内部)循环。其中,组件的第二个循环通过升高冷却液温度进一步实现了传热,而主要成分体积的热量主要是通过增加和下降来实现的温度。在成本方面,主侧的成本约为流体冷却成本的30%,第二部分的成本约为70%。从冷却的效果的角度来看,冷板通常在具有热交换的最佳影响的平面上使用,例如CPU,GPU和内存模块,不适用于其他组件,例如电源和IC电容器。通常,冷板Na板冷却可以去除机架设备产生的热量的70-75%,因此需要一种混合冷却方法。 冷板是冷却液体服务器的主要成分。冷板材料可以由多种材料制成,例如铜,铝,不锈钢和钛合金。铜具有很高的导热率和良好的过程,并且适用于普通的大气环境,海洋气候条件和液体培养基(例如水)。铝的冷板目前很少在数据中心行业中使用。主要原因是他铝材材料的交换能力低于铜材料,铝的导热率约为铜的60%。在相同的热交换设计下,铝冷板的热电阻更高;另外,铝材料更具活性,并且更有可能对冷却液反应。在严重的情况下,它可能会导致液体,腐蚀,冷板的泄漏,甚至最终影响系统使用的杂质增加。在优势方面,从铜到铝的冷板的材料将有助于在整个液体冷却系统中节省约44%的冷板重量,并且在大量铜生产后,处理冷铝板的技术很灵活,并且可以在一定程度上节省一定程度的冷铜板成本。其他材料:石墨烯涂层的冷板,即将石墨烯喷在铝板表面上(成本增加20%),但它可以将冷柏拉图的厚度减少30%,并减少系统的整体体积。 浸入液体冷却:一种液体冷却技术,可在配备DI导导的惰性液培养基的机箱中倒入热成型物质(例如CPU,GPU,记忆和硬盘等)。这包括两个周期:回收的主要部分在冷却设备外部使用(例如冷却塔或冷水机单元)在热交换单元(例如CDU等)中交换热量以释放冷却液的热量;在第二部分的循环中,加热CDU与液体冷却盒中的IT设备交换,将热量转移到冷却液中。根据循环散热过程中冷却液的变化,将其分为单相浸入液体冷却和双相浸入液体冷却。 ①单相浸入类型:冷却兰群岛的第二部分A热传递培养基仅在传热期间变为温度过程,没有相位转移。在此过程中,由于物质的明智热变化,热量完全传递。 ②两相浸入类型:第二部分冷却液作为中等转移介质在传热过程中经历相变,并且通过依靠天然热物质的变化来移动热。 喷雾型液体冷却:直接接触液体的液体冷却,在芯片级设备上进行精确喷涂,并直接在加热设备或通过重力或系统压力连接到它的热导体元件上喷洒液体冷却形式。散热的影响:喷雾型液体冷却也可以完全消除散热风扇(达到100%的液体冷却),并且具有很强的热交换能力。与下沉的液体冷却相比,数据中心量可以减少到约1.1。喷雾型液体冷却需要机柜和服务器机箱的转换,这很难操作和维护,并且效率节能的T比下沉的液体冷却更糟糕。 全面考虑了诸如成本,维护,pue和工业成熟度,冷板和单相照明类型等因素的初步存在比其他液体冷却技术以及当前对当前行业的解决方案更大的好处。冷板液体冷却可以实现从传统的空气冷却模式的平稳过渡,并在数据中心领域中应用更多。 Jawnvidia从Hopper到Blackwell硬件的最大转变是采用直接芯片液体冷却技术(DLC)来提高机架级计算密度。 GB200 NVL36 L2A机柜,服务器级别(冷板,风扇)的热管理量约为26%,而机架级别(计算托盘,NV Switch,CDU,Mainfold)的价格约为65%。在GB200 NVL72 L2L服务器的热管理值中,服务器级别值的成本约为38%,机架级帐户valuES约47%。请注意GB300服务器的新更改:在GB200服务器设计中,冷板采用了“ One and Out”调整。每个计算托盘都配备了6对快速连接器。 NVL72系统中的快速连接器的一般数量达到126对(2开关托盘对),总价值约为10,080美元; GB300可以放弃“大冷板”,并为每个GPU配备单独的冷板。单个计算托盘的数量从6对增加到14对,但新快速连接器的成本减少了。根据计算,NVL72系统的快速连接器的总成本约为14,040美元。 我们认为,去除热量是未来几年AI计算能力领域升级技术的主要方向之一。 NVIDIA的单一功耗从700瓦到1200瓦和1400瓦不等,预计将来将重复2000瓦。此外,大型CABI的出现网和超节点以及热源的叠加进一步增加了散热的难度,因此,无视热量是将来不断重复和升级的方向。其次,目前供应商主要在台湾和美国工厂,例如Coolermaster,AVC,Boyd和Delta。中国大陆供应商的比例相对较低。随着预防热量从研发转移到大规模的大规模劳动力,中国大陆公司在扩大劳动力能力方面具有更大的好处。我们认为,预防热量的一系列成分将有更多的中国供应商进入全球供应系统。 1.4 PCB:对流动产品和应用的需求很强劲,预计PCB市场将看到相同的数量和价格上涨 服务器平台的持续升级带来了CCCL等级材料的改进和PCB层数量的增加。根据Prismark数据,UNDER PCIE3.0总线标准,信号传输速率为8GBP,服务器的主板PCB为8-12层,相应的CCL DF值在0.014-0.02之间,属于中等损耗中等水平; PCIE4.0总线的传输速率为16Gbps,需要将PCB层编号增加到12-16层,并且CCL值DF在0.008-0.014之间,属于低损失水平;当总线标准时,PCB层数需要增加到12-16层,并且CCL值DF在0.008-0.014之间,属于低损失水平;当将Busito标准准确地升级到PCIE5.0时,数据传输速率达到36Gbps,PCB层的数量将需要达到16层以上,并且CCL材料的DF值降低了0.004-0.008的范围,该范围属于超低损失消耗品的水平。 2024年,Brichstream平台开始逐渐穿透。尽管PCIE标准认为5.0(AMD的Plat形式对应于ZEN5),CCL的级材料逐渐升级到Ultraloss,PCB板层的数量增加到18-22层。 AI服务器的PCB层和CCL级别的数量高于传统服务器,并添加了一个新的GPU板组。由于AI服务器体系结构更为复杂,并且具有更高的性能要求,因此与传统的普通服务器相比,单个服务器上的PCB值显着提高。其中,PCB值的增加来自: (1)添加了一个新的UBB主板。 AI服务器之间的最大区别是添加了GPU ModuleHAS以支持基于传统CPU的计算计算,因此这已经从1个主板(CPU主板)变为2个主板(CPU主板和GPU主板)。 UBB主板是配备GPU加速卡的平台。它直接连接到GPU加速模块(SXM/OAM模块),该模块提供了出色的数据tranGPU超速模块的通道的弹性和传递。它还具有一些数据管理管理,通常是高性能,高稳定性和高类型的扩展。 (2)OAM加速器卡增加了HDI需求。在AI服务器上,为了增加相互关联的GPU的通道数量和传输速率,硬件解决方案的集成比以前的CPU高,并且相应的PCB已转向HDI。 NVIDIA A100,H100,GH200加速器卡和B100是由HDI过程制成的。在NVL72机架的架构中,SwitchTray还可以采用HDI过程。 北美PCB的账单比率连续八个季度保持在1以上。书籍与账单的比率是通过在调查样本中的公司销售销售的过去三个月中预订的订单价值来计算得出的。书与票的比率超过1.00,这表明当前的需求正在导致供应。这是销售格罗的积极指标在接下来的三到十二个月中。从2024年9月到2025年4月,北美PCB的书籍比率分别为1.08、1.25、1.15、1.19、1.24、1.24、1.33、1.24和1.21,并且连续八个月保持高于1。 GB200 PCB设计材料已完全升级。 GB200 NVL72的核心是使用超级棋子进行DDESIGN的Bianca主板。一个系统中有18个计算机,9个切换浴和36个超级芯片。单个计算机中有两个超级芯片,每个超级芯片具有1个CPU和2 GPU,取消UBB板和Saimatecpu主板。与H100相比,NVL72 CPU和GPU在同一SuperChip板上相同,因此无需OAM加速卡和CPU的主板即可带来单个GPU。 SwitchTray假定GPU的互连,因此不再需要UBB板。也就是说,NVL72能够覆盖原始的UBB并使用SwitchTray连接GPU。 在PCB材料方面,比较o the M6/M7-Level CCL used in the H100 CPU motherboard, OAM and UBB, the superchip material of the GB200 NVL72 will be upgraded to a higher level (M7+) CCL, with reduced losses, and HDI with higher signal transmission rate,Larger wiring density and better heat precautionary to meet AI's AI requirements AI requirements AI requirements AI requirements AI requires AI requirements for计算AI的AI计算AI要求AI要求AI要求的AI要求。 GPU。 Blackwell Ultra(B300)芯片的计算强度的性能将再次升级。在GTC2025上,Blackwell Ultra(B300)是基于Blackwell架构的新一代AI计算平台,已正式发布。它专为大规模理解和复杂的任务而设计,并专门针对实时识别和AI代理进行了优化。在基本规格方面,Blackwell Ultra(B300)首次使用HBM3E-12HI内存堆栈(B200为8HI),单芯片视频MEmory增加到288GB。根据TSMC的4NM工艺,它结合了2080亿晶体管,其卡强度消耗为1.4kW,并支持液体冷却设计。 NVLink5.0技术已被采用以实现1.8TB/s InterCon InterConnect带宽。在计算强度性能方面,Blackwell Ultra配备了新一代的Blackwell Tensor Core。 FP4计算功率比上一代B200高50%,B200达到15个PETAFLOP,并且特别优化识别方案。它在芯片架构,沟通速度,能源效率性能,安全性等方面也具有更好的性能。 PCB进入NV链,非常乐观,可以连接到诸如Dagta,玻璃纤维织物,铜箔,硅球等流量,将逐渐进入全球供应链。目前,国内PCB和工业链的支持进入了NV芯片链。上游钥匙链接材料,例如树脂,玻璃纤维fAbric,铜箔和球硅经历了本地支持的全球布局的转变,并逐渐进入全球供应链系统。例如,在树脂领域,国内低级双匹配马匹,PPO和其他高端材料正在从替换国际领先企业供应链的进口方面转变为AI服务器的好处。将来,预计将进入海外制造商的芯片产品供应链,例如亚马逊,元和Google。从样本试验到小批量供应,批处理订单,这些上游链接继续破坏国际供应链障碍,并在PCB行业的全球划分中占据了越来越重要的地位。我们对国内PCB的流动工业链感到乐观。 高速铜板具有更严重的电性能要求,并且PPO和碳氢化合物等树脂材料受到影响。作为AI服务ERS,CPU服务器PCIE,交换机和光学模块正在不断升级,CCL及其树脂材料的要求也相应地升级。从介电损失的指标开始:在M6,M7,M7N级CCL领域,PPO和PI等树脂的值以及修订后的BMI符合要求;在M8级CCL领域,PPO等特雷辛的值符合要求;在CCL字段中,PPO等树脂的值满足要求;在CCL字段中,M9中的CCL值向上,值在0.001之内,树脂材料可以重复碳氢化合物和PTFE系统。但是,另一方面,PTFE碳氢化合物树脂和树脂面临诸如粘附不良和艰难加工等问题。它们在铜板领域有局限性,需要进一步处理该过程。 PPO具有出色的电化学性能,并成为更改后高速CCL的理想材料。多苯基e醚(定义为PPO)是对热塑性树脂的抗元素。它源自2,6-二甲醇的聚合,相对分子量为25,000至30,000,并且在1965年实现了工业生产。有机溶剂,无法满足铜板的要求。因此,为了改善在铜板领域使用的加工和其他特性,应将其更改为热固性树脂。 国内高端电子树脂加速他们进入全球供应链。黄铜层压板的产量主要基于大陆,而国内上游材料供应链的机会是:2020年,中国大陆的铜层压板生产(包括台湾和日本首都)在世界上有76.9%的股份。随着对高速CCL的需求,国内PPO供应链在战略机遇中引起了人们的需求。该行业的结构集中了:尽管一些制造商奠定了向下低分子量PPO,只有少数制造商实际上传输了包括Sabic和Shengquan组在内的批处理。此外,国内制造商(例如Shengquan Group,Dongcai Technology和Shiming Technology)也加速了下一代碳氢化合物树脂的布局。 电子织物起着CCL刺激作用,并通过电子级玻璃纤维编织。电子纱线是玻璃纤维上的高端产品,广泛用于各种电子产品。玻璃纤维具有良好的特性,例如耐腐蚀性,高电阻温度,低潮,高强度,轻质重量,绝缘材料和阻燃剂。它广泛用于电子消费者,行业,通信,航空航天和其他领域。该行业中通常称为“电子纱”的电子玻璃纤维纱是螺纹玻璃纤维中的高端产品。单细丝的直径不超过9微米,并且已经走了OD耐热性,耐化学性,DE - 电气和机械性能。电子纱线是生产电子级玻璃纤维织物的基本原材料,并广泛用于各种电子产品中。 电子织物由电子纱制成,并在增强CCL中起作用。电子级玻璃纤维织物是通过电子级玻璃纤维纱编织而成的,并且可以提供增强的双向(或多向)效应。它是一种重要的基本材料,通常被称为行业中的“电子织物”。电子织物具有高强度的好处,在热量中高,耐药性良好,耐火性良好,良好的电特性和出色的尺寸稳定性以及隔热,增强,防止膨胀和向后和支撑。支持支持和其他操作 - 打印的电路板具有良好的电气性能和机械优势和机械性弹性Gths。电子织物作为基材被广泛用于铜业,该铜工业解决了容易受到短路和断路器的PCB问题。目前,超过70%的CCL使用电子织物作为底物。 高频PCB需要Lowdk玻璃纤维织物,而SIO2或B2O3的质量改进是一种有效的准备方法。 AI等行业的发展促使人们对高频PCB的需求,而DK的纤维织物的还原可以有效地满足上述需求。人工智能等行业的快速发展对电子级玻璃纤维的要求更高。为了减少信号传动的滞后和强度的衰减,需要电子级玻璃纤维具有较低的介电常数(约5)和介电损耗(
电话
020-66888888