We engineer tomorrow to build a better future.
Solutions to your liquid cooling challenges.
 
 
DANFOSS
数据中心液冷产品
  数据中心液冷产品
  FD83接头
  UQD快速接头
  UQDB盲插接头
  BMQC盲插接头
  EHW194液冷软管
  5400制冷剂接头
  Manifold 分水器
  液冷系统生产及集成
Danfoss流体管阀件
 
 
 
 
 
非标定制液冷产品
液冷系统生产及集成
阀门
传感器
选型资料下载
  新闻通告
  成功案例
  资料下载

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 


   

 

英伟达B200提前曝光:功耗达1000W



戴尔透露英伟达下一代Blackwell AI芯片:2024年推出B100,2025年推出B200。




3月4日消息,据Barron’s报道,戴尔的一位高管在上周财报电话会议上透露,英伟达将于2025年推出旗舰AI计算芯片B200 GPU,单张GPU功耗达1000W。相比之下,当前英伟达旗舰H100 GPU的整体功耗为700W,英伟达H200和AMD Instinct MI300X的整体功耗在700W~750W。此前B200并未出现在英伟达公布的路线图中,英伟达可能是先向戴尔等大型合作伙伴透露了相关信息。



英伟达数据中心/AI产品迭代路线图(图源:英伟达)

根据其此前披露的路线图,B100是新一代旗舰GPU,GB200是将CPU和GPU组合的超级芯片,GB200NVL是超级计算使用的互连平台。


英伟达数据中心/AI GPU基础信息(图源:Wccftech)
戴尔的“剧透”意味着英伟达Blackwell GPU系列至少将包括两款主要的AI加速芯片——今年登场的B100和明年问世的B200。

戴尔科技集团COO兼副董事长Jeffrey W.Clarke在财报电话会议上的发言实录截图

有报道称英伟达Blackwell GPU可能会采用单片设计。但考虑到芯片消耗的功率及所需散热量,也有推测判断B100可能是英伟达第一个双芯片设计,以使其有更大表面积来处理产生的热量。去年英伟达成为台积电第二大客户,占台积电净收入的11%,仅次于给台积电贡献了25%收入的苹果。为了进一步提升性能和能效,英伟达下一代AI GPU预计会采用性能增强的工艺技术。和Hopper H200 GPU一样,第一代Blackwell B100将利用HBM3E内存技术,因此升级后的B200变体可能会采用更快版本的HBM内存,以及可能更高的内存容量、升级规格和增强功能。英伟达对数据中心业务的收入抱有很高期望。据韩媒去年12月报道,英伟达已向存储芯片大厂SK海力士、美光预付了超过10亿美元的订单,为H200和B100 GPU的HBM3E内存确保足够的库存。英伟达计划在B100中启用HBM3E,并通过采用Chiplet设计实现每瓦性能的提升。


英伟达GPU采用的内存技术演进路线图(图源:英伟达)

戴尔、惠普两家AI服务器大厂在上周财报会期间均提到对AI相关产品的需求猛增。戴尔称其第四财季AI服务器积压订单几乎翻番,并透露AI订单分布在几款新旧GPU上。惠普在电话会议上透露GPU交货时间“仍然较长”,为20周或更长。来源:

 

Nvidia下一代GPU,功耗惊人

 

AI 和 HPC 处理器正在展现出强大功能。


 

全球最大的服务器制造商之一戴尔透露了英伟达即将推出的人工智能 GPU,代号为 Blackwell。显然,这些处理器的功耗高达 1000 瓦,比上一代处理器的功率增加了 40%,需要戴尔利用其工程独创性来冷却这些 GPU。戴尔的评论也可能暗示了 Nvidia 即将推出的计算 GPU 的一些架构特点。

 

戴尔首席财务官 Yvonne Mcgill 表示:“显然,我们对 H200 所发生的变化及其性能改进感到兴奋。” “我们对 B100 和 B200 所发生的事情感到兴奋,我们认为这实际上是另一个区分工程信心的机会。我们在热方面的特征,你真的不需要直接液体冷却来达到能量密度每个 GPU 1,000 瓦。”


 

由于不了解 Nvidia 关于其 Blackwell 架构的计划,我们只能参考散热的基本经验法则,即芯片面积的散热通常最高约为每平方毫米 1W。

 

从芯片制造的角度来看,这就是有趣的地方:Nvidia 的 H100(基于定制 4nm 级工艺技术构建)已经消耗了约 700W,尽管包含 HBM 内存的功率,并且芯片芯片为 814^2大,因此每平方毫米的功耗低于 1W。该芯片采用台积电定制的性能增强型 4 纳米级工艺技术构建。

 

Nvidia的下一代GPU很可能会基于另一种性能增强的工艺技术构建,我们只能猜测它将采用3nm级的工艺技术构建。考虑到芯片消耗的功率以及所需的散热量,有理由认为 Nvidia 的 B100 可能是该公司的第一个双芯片设计,从而使其具有更大的表面积来处理产生的热量。我们已经看到 AMD 和英特尔采用了具有多个芯片的 GPU 架构,因此这将符合其他行业趋势。

 

当谈到高性能人工智能和高性能计算应用时,我们需要考虑以 FLOPS 为单位衡量的性能,以及实现这些 FLOPS 和冷却产生的热能所需的功耗。对于软件开发人员来说,重要的是如何有效地使用这些 FLOPS。对于硬件开发人员来说,重要的是如何冷却产生这些 FLOPS 的处理器。戴尔表示,这就是其技术有望超越竞争对手的地方,这也是戴尔首席财务官谈论英伟达下一代 Blackwell GPU 的原因。

 

“明年的 B200 就会出现这种情况,”麦吉尔说,他指的是 Nvidia 的下一代 AI 和 HPC GPU。“我们有机会真正展示我们的工程技术以及我们的行动速度,以及我们作为行业领导者所做的工作,以利用我们的专业知识使液体冷却大规模发挥作用,无论是在流体化学和性能方面,还是在我们的互连工作,我们正在做的遥测,我们正在做的电源管理工作,它确实使我们能够准备好将其大规模推向市场,以利用这种令人难以置信的计算能力或强度或能力,这些能力将存在于市场。”

 

英伟达最强AI芯片升级散热技术

近日,英伟达宣布将在即将到来的GTC2024大会上发布全新的Blackwell架构的B100 GPU。据内部消息,B100在整体性能上实现了显著提升,相较于当前的H系列。这款GPU不仅增强了HBM内存容量和AI性能,还引入了创新的液冷散热技术,取代了以往的风冷散热方案。英伟达CEO黄仁勋认为,浸没式液冷技术将成为未来发展趋势,并有望引领整个散热市场进行革新。因此,从B100开始,英伟达未来所有产品都将采用液冷散热技术。这一重大技术革新对AI服务器市场产生了深远影响。

英伟达的B100液冷项目由代工厂英业达负责提供。英业达方面表示,今年AI服务器市场仍将以英伟达产品为主导,预计B100产品将于第四季度正式量产。此外,随着高性能应用的普及,对散热需求极高的芯片逐渐增多,这使得液冷技术成为服务器温控产业未来发展的重要方向。

 

华尔街分析师Hans Mosesmann认为,液冷技术是克服运算挑战的关键,有助于为超大规模云端服务铺平道路。他将超微电脑的目标价从700美元上调至1300美元,并维持买入评级。这是因为超微电脑采用了液冷服务器技术,能有效为高速运转的AI计算机降温。由此可见,液冷技术在AI服务器领域的应用前景广阔,或将成为未来市场竞争的一大亮点。

 

总之,英伟达全新B100 GPU的推出,标志着液冷散热技术在AI服务器领域的广泛应用。随着各大厂商纷纷跟进,液冷技术有望引领散热市场革新,并为AI服务器产业带来更为广阔的发展空间。在这场技术变革中,率先采用液冷技术的厂商将占据市场优势,进一步推动AI服务器市场的发展。


 

免责声明:文章来源网络及其他媒体平台,转载目的在于传递更多信息,仅代表作者个人观点,不确保文章的准确性,如有侵犯版权请告知,我们将在24小时内删除!

 

 

北京汉深流体技术有限公司 Hansen Fluid
丹佛斯签约中国经销商 Danfoss Authorized Distributor

地址:北京市朝阳区望京街10号望京SOHO塔1C座2115室
邮编:100102
电话:010-8428 2935 , 8428 3983 , 13910962635
手机:15801532751,17310484595 ,13910122694
13011089770,15313809303
Http://www.hansenfluid.com
E-mail:sales@cnmec.biz

传真:010-8428 8762

京ICP备2023024665号
京公网安备 11010502019740

Since 2007 Strong Distribution & Powerful Partnerships