We engineer tomorrow to build a better future.
Solutions to your liquid cooling challenges.
 
 
DANFOSS
数据中心液冷产品
  数据中心液冷产品
  FD83接头
  UQD快速接头
  UQDB盲插接头
  BMQC盲插接头
  NVQD液冷接头
  NVQD02
  NVBQD02
  NVQD03
  NVQD04
  EHW194液冷软管
  EHW094液冷软管
  5400制冷剂接头
  不锈钢90度旋转接头
  Manifold 分水器
  液冷系统生产及集成
 
选型资料下载
  新闻通告
  成功案例
  行业动态
  资料下载
 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 


   

 

平头哥肩比英伟达H20,阿里自研AI芯片曝光 重要参数相当!

2025 年 9 月首次通过央视《新闻联播》公开亮相-报道了中国联通三江源绿电智算中心项目建设成效,多款国产 AI 芯片亮相其中。其中PPU 是阿里云最新一代自研 AI 芯片

该项目国产算力涉及阿里平头哥、沐曦股份等多个品牌已签约或拟签约情况。

该项目国产算力涉及阿里平头哥、沐曦股份等多个品牌已签约或拟签约情况。

已签约项目中,阿里云贡献突出,共有 1024 台设备、16384 张平头哥算力卡,提供 1945P 算力。阿里云芯片核心产品线与技术规格阿里云自研 AI 芯片主要包括平头哥 PPU和含光 800两大产品线,分别面向大模型训练推理和 AI 推理加速。PPU 芯片采用 7nm 工艺,96GB HBM2e 显存,片间带宽 700GB/s,功耗 400W,性能比肩英伟达 H20,已大规模部署于阿里云数据中心。含光 800 则采用 12nm 工艺,在 ResNet-50 测试中推理性能达 78563 IPS,能效比 500 IPS/W,为城市大脑、电商推荐等场景提供强大算力支持。阿里云计划未来三年投入超 3800 亿元用于 AI 芯片研发与基础设施建设,打造 "一云多芯" 生态体系。

平头哥PPU芯片PPU 是阿里云最新一代自研 AI 芯片,2025 年 9 月首次通过央视《新闻联播》公开亮相,目前已在阿里云大规模部署:


已签约项目共有1747台设备、22832张算力卡,总算力达3479P。
具体包括:
- 阿里云:总计1024台设备、16384张平头哥算力卡、1945P算力;
- 中科院:总计512台设备、4096张沐曦算力卡、984P算力;
- 北京京仪:总计83台设备、1328张壁仞算力卡、450P算力;
- 中昊芯英:总计128台设备、200P算力。

拟签约项目总算力为2002P,涉及太初元碁、燧原科技、摩尔线程的算力卡。

央视镜头还给了平头哥PPU、NVIDIA A800、NVIDIA H20、华为昇腾910B、壁仞104P的算力卡重要参数对比表格一个大特写。

参数 平头哥 PPU 英伟达 A800 英伟达 H20 优势
参数
平头哥PPU
英伟达 A800
英伟达 H20
优势
制程工艺 7nm (国产) 7nm 4nm 供应链自主可控
显存容量 96GB HBM2e 80GB HBM2e 96GB HBM3 容量超 A800,与 H20 持平
片间带宽 700GB/s 400GB/s 900GB/s+ 高于 A800,接近 H20
功耗 400W 400W 550W 比 H20 低 28%,能效更高
接口规格 PCIe5.0×16 PCIe4.0×16 PCIe5.0×16 支持高速数据传输
峰值算力 120 TFLOPS (基础版) - - 专注 AI 推理优化
成本优势 单卡成本较 H20 下降 40% - - 国产工艺与封装降低成本

 

从参数表现来看,也证明这款芯片 在多个关键指标上已经超越英伟达A800,甚至在某些方面 接近H20的水平。PPU 分为基础版(专注 AI 推理) 和高级版(支持 AI 训练) 两个版本,兼容 CUDA 生态,使开发者能以较低成本迁移现有应用 。

 

这款PPU芯片配备了96GB的HBM2e高带宽内存,片间互联带宽达到了700GB/s,支持PCIe 5.0接口,整板功耗为400瓦。与英伟达A800相比,PPU在显存容量、互联带宽和接口标准上都有优势。与H20相比,PPU在功耗控制上更优(400W vs. 550W),但H20使用了更新的HBM3显存,互联带宽也更高(900GB/s)。业界评价认为,阿里巴巴的PPU芯片在整体功能上可与英伟达的H20图形处理单元(GPU)相当。阿里自研AI芯片的一些共同技术特点和追求的目标包括:专用架构设计:阿里芯片常采用专用架构(如自研NPU、针对AI计算的微架构和指令集),旨在以最小成本实现大量AI模型运算,提升效率、降低成本。例如,含光800为提升性能功耗比,采用了多种密集压缩的计算、存储、数据复用和流水线技术。


高性能内存与互联:高端芯片(如PPU)集成HBM2e等高带宽内存和高速互联接口(如700GB/s片间带宽),以应对大规模AI模型训练和推理的数据吞吐需求。
高能效比:阿里芯片在设计上追求极高的性能功耗比。含光800的能效比达500 IPS/W,Ali-NPU的性价比据称是同类产品的40倍。

设计特点与性能表现平头哥PPU是专门为人工智能工作负载进行优化设计的芯片。其高带宽内存(HBM2e)和高速互联能力,使其在处理大规模AI模型,尤其是在训练和推理大型语言模型时,能提供充足的存储带宽和高效的数据传输。这使得它非常适合于云端AI推理场景。在实测性能方面,虽然具体的计算性能数据未在报道中明确披露,但推测其综合性能已达到可以部分替代英伟达H20的程度。

近期有报道称,阿里自今年初以来已将自研PPU芯片应用于轻量级AI模型的训练,部分替代了英伟达的GPU芯片。国内AI芯片发展背景阿里巴巴进军AI芯片领域并非一朝一夕。其芯片研发由平头哥半导体公司主导,自2018年成立以来,已推出基于RISC-V架构的处理器、AI推理芯片含光800和服务器芯片倚天710。含光800早在2019年就已发布,在业界标准的ResNet-50测试中,推理性能达到78563 IPS,能效比500 IPS/W,在当时相比业界最好的AI芯片性能提升了4倍。它已应用于阿里巴巴内部核心业务,如城市大脑和拍立淘商品库图片识别。

阿里巴巴在芯片技术领域的持续投入,是其构建从“芯片—框架—模型—应用”全栈协同AI能力的重要一环。这种垂直整合的策略,旨在实现性能与成本的最优平衡,并保障供应链安全。战略意义与市场影响阿里巴巴加大在AI芯片领域的投入,并取得技术突破,有其深远的战略意义和现实的市场考量:

1.降低对国外芯片的依赖,保障供应链安全:特别是在当前复杂的国际经贸环境下,自主研发的AI芯片有助于减少对英伟达等国际巨头产品的依赖。

2.优化云计算服务成本结构:自研芯片能更好地满足自身业务对算力性能、功耗和成本的特定需求,优化成本结构。

3.抓住国产替代市场机遇:中国政府对芯片国产化的推动创造了巨大的市场空间。Bernstein研报预测,2025年国内AI芯片需求将达到395亿美元,本土化率将从2023年的17%增长至2027年的55%。

4.赋能自身AI生态:强大的自研芯片为阿里巴巴的“通义千问”等大模型提供了更高效、更经济的算力基础,强化其在整个AI领域的竞争力。

阿里巴巴集团CEO吴泳铭已宣布,未来三年,阿里巴巴将投入超过3800亿元用于建设云和AI硬件基础设施,这一投资规模超过过去十年总和。这充分彰显了阿里巴巴对AI底层技术探索及建设底层架构的决心。

挑战与未来展望

尽管平头哥PPU芯片的参数令人印象深刻,但阿里巴巴乃至整个中国AI芯片产业依然面临挑战:
软件生态建设:这是决定国产AI芯片能否持续发展的关键。英伟达的CUDA生态已经非常成熟,构建同样繁荣的软件开发生态需要时间。
持续的技术迭代:AI芯片技术更新速度快,需要持续的高研发投入以保持竞争力。
制造环节的依赖:芯片设计出来后,先进制程的制造依然依赖代工厂。

然而,未来的机遇也是巨大的。弗若斯特沙利文预测,到2027年,中国AI芯片市场规模将提升至5952亿元。阿里巴巴的此次突破,不仅展示了中国企业在高端芯片设计领域的技术积累,也为国产算力替代注入了强劲信心。随着阿里等企业持续投入和技术创新,中国AI芯片有望在全球市场占据更重要的位置。

 

含光800芯片

含光 800 是阿里巴巴于 2019 年推出的首款自研 AI 推理芯片:

 

参数 含光 800 当时业界标杆 优势
参数 含光 800 当时业界标杆 优势
制程工艺 12nm - 高密度集成
晶体管数量 170 亿 - 大规模并行计算能力
峰值算力 820 TOPS - 强大计算能力
推理性能 78563 IPS(ResNet-50) 约 15000 IPS 性能提升 4 倍
能效比 500 IPS/W 约 150 IPS/W 能效提升 3.3 倍
支持精度 INT8 - 高效处理视觉任务

 

 

含光 800 已在多个核心业务场景中实现规模化应用

  •    PPU应用案例

PPU 已在多个重大项目中实现规模化部署:

  1. 三江源绿电智算中心 :

    • 部署 1024 台设备,16384 张 PPU 芯片
    • 提供 1945P 总算力,是国内首个国产化万卡智算集群
    • 项目规划最终规模将达 16000 卡
  2. AI Stack 大模型一体机 :

    • 内置 16 张 PPU 芯片 + 1.5TB 超大显存
    • 单机支持 DeepSeek R1 671B 满血无损精度模型
    • 适配 Qwen 72B/32B/14B/7B 等多尺寸大模型 
  3. 灵骏智算资源 :

    • 阿里云推出的基于 PPU 的完整解决方案
    • 包含 CPU、内存、存储、网络及云原生容器服务
    • 采用 MaaS (模型即服务) 商业模式,出售封装后的 AI 算力
  4. 工业质检 :

    • 比亚迪工厂部署基于 PPU 的 AI 质检方案
    • 缺陷识别准确率提升至 99.7%
    • 大幅提升生产效率与产品质量

 

阿里云AI芯片技术特点

阿里自研AI芯片的一些共同技术特点和追求的目标包括:专用架构设计:阿里芯片常采用专用架构(如自研NPU、针对AI计算的微架构和指令集),旨在以最小成本实现大量AI模型运算,提升效率、降低成本。例如,含光800为提升性能功耗比,采用了多种密集压缩的计算、存储、数据复用和流水线技术。高性能内存与互联:高端芯片(如PPU)集成HBM2e等高带宽内存和高速互联接口(如700GB/s片间带宽),以应对大规模AI模型训练和推理的数据吞吐需求。高能效比:阿里芯片在设计上追求极高的性能功耗比。含光800的能效比达500 IPS/W,Ali-NPU的性价比据称是同类产品的40倍。

多款国产AI芯片亮相《新闻联播》

由表可见,平头哥PPU采用HBM2e显存,显存容量多达96GB,片间带宽为700GB/s,功耗为400W,多项配置规格超过A800、接近H20。

华为昇腾310B采用64GB HBM2,片间带宽为392GB/s,功耗为350W。壁仞104P算力卡采用32GB HBM2e,片间带宽为256GB/s,功耗为300W。

这也是平头哥自研AI芯片少见的公开披露。

据此前业界传言,PPU是平头哥研发的专用AI芯片,针对大模型推理进行了深度优化,兼容CUDA生态,分为基础版与高级版两个版本,基础版侧重AI推理,峰值算力达到120TFLOPS,高级版侧重AI训练。今年3月,蚂蚁集团百灵大模型的技术报告曾披露该模型训练所使用的不同AI芯片计算资源,其中就有一款未注明的神秘芯片B,相关信息与平头哥PPU吻合。

 

今年8月,阿里巴巴CEO吴泳铭在财报会议上透露,根据全球AI芯片供应及政策变化,阿里有“后备方案”,与不同合作伙伴合作,共同建立多元化的供应链储备。阿里云自研 AI 芯片已从单一产品发展为完整技术体系,未来将在国产替代和自主创新中发挥关键作用。

 

 

 

 
北京汉深流体技术有限公司 Hansen Fluid
丹佛斯签约中国经销商 Danfoss Authorized Distributor

地址:北京市朝阳区望京街10号望京SOHO塔1C座2115室
邮编:100102
电话:010-8428 2935 , 8428 3983 , 13910962635
手机:15801532751,17310484595 ,13910122694
13011089770,15313809303
Http://www.hansenfluid.com

E-mail:sales@cnmec.biz
传真:010-8428 8762

京ICP备2023024665号
京公网安备 11010502019740

Since 2007 Strong Distribution & Powerful Partnerships