首页 » 人工智能 » GTC 2024硬件一览:史上最强AI芯片GB200宣告!高达2080亿晶体管!

GTC 2024硬件一览:史上最强AI芯片GB200宣告!高达2080亿晶体管!

装饰工程通讯 2025-04-05 0

扫一扫用手机浏览

文章目录 [+]

昔时夜家还在睡梦中时,大洋彼岸有一场“科技春晚”悄然召开。
没错,又到了一年一度的GTC大会时候。
今年的GTC大会不同以往,终于规复了线下举行,并且将从18号持续至21号。
先给不理解GTC的玩家先容一下,GTC是关于AI的NVIDIA开拓者大会,会议中你可以理解如何利用AI、加速打算以及数据科学去塑造乃至是改变天下。

图片源于网络

GTC 2024硬件一览:史上最强AI芯片GB200宣告!高达2080亿晶体管! GTC 2024硬件一览:史上最强AI芯片GB200宣告!高达2080亿晶体管! 人工智能

今年的GTC峰会主题完备环绕AI展开,2个小时的韶光,老黄又一次带来了AI的变革时候。
当然除了老黄的开幕演讲外,后面还有900多场鼓舞民气的会议在等着你。
同时这次GTC大会还吸引了超过200家展商,汇聚了数千名不同行业领域的从业职员一同参与。
丰富多彩的技能分享、越见非凡的创新技能,称它是AI的盛会都不为过。
想必你也好奇老黄究竟在GTC上带来了什么惊喜吧,别焦急,本篇带你一睹GTC峰会上的那些硬件产品

GTC 2024硬件一览:史上最强AI芯片GB200宣告!高达2080亿晶体管! GTC 2024硬件一览:史上最强AI芯片GB200宣告!高达2080亿晶体管! 人工智能
(图片来自网络侵删)

图片源于网络

见证AI的变革时候

峰会伊始,我们熟习的皮衣刀客定时出场。
一上来就直奔本日的主题——AI,并表示“加速式打算机的生产力已经到达了一个迁移转变点,天生式AI正在加速发展,而我们须要以一种全新的办法进行打算,才能够进一步提高打算机生产力。

图片源于网络

并且还知心的展示了其自己亲手画出的关于打算机生产力的演化流程,末了一项正是本日的重点!

图片源于网络

改变形态的Blackwell GPU

没错,老黄在GTC宣告推出新一代GPU Blackwell。
这里先先容一下Blackwell架构,此前NVIDIA推出的显卡一样平常是两种架构,个中游戏显卡例如我们熟习的RTX 40系则是Ada Lovelace架构,而面向AI、大数据等运用的专业级显卡则采取Hopper 架构。

图片源于网络

而老黄在大会上则表示“Blackwell不是一个芯片,它是一个平台的名字。
”意思是Blackwell架构将同时用于以上两种类型的产品。
借助这一架构,NVIDIA将推出涵盖多个运用领域的显卡,即RTX 50系显卡也会是这个架构。
并且从老黄手上的芯片可以看出,新的Blackwell GPU的体积明显比上代Hopper GPU要更大一些。

左边为B100,右边为H100 图片源自于网络

至于这个架构名字的由来,则要追溯到美国科学院首位黑人院士、加州大学伯克利分校首位黑人终生教授戴维·布莱克维尔(David Blackwell),它是著名的数学家、统计学家,不过很可惜的是这位教授在2010年因病去世。

图片源于网络

胆怯的2080亿晶体管

言归正传,让我们连续关注这次Blackwell GPU。
“我们须要更大的GPU,如果不能更大,就把更多GPU组合在一起,变成更大的虚拟GPU。
”老黄在GTC上也确实这么干了。
Blackwell架构的首个GPU为B200,由于目前4nm制程工艺已经靠近极限,以是NVIDIA也玩起了“拼图”,B200采取台积电的 4 纳米(4NP)工艺蚀刻而成,由两个芯片通过NVLink 5.0组合在一起,以10TB每秒的满血带宽互联,总的晶体管数量更是达到了胆怯的2080 亿。

图片源于网络

第二代Transformer引擎

除了芯片形态的变革外,Blackwell还有5大创新,首先便是第二代Transformer引擎。
它支持FP4和FP6精度打算。
得益于此,Blackwell GPU的FP4与FP6分别是Hopper的5倍与2.5倍。

图片源于网络

第五代NVLink互连

第五代NVLink互连则是将多个Blackwell GPU组合起来的主要工具。
它与传统的PCIe交流机不同,NVLink带宽有限,可以在做事器内的GPU之间实现高速直接互连。
目前第五代NVLink可每个GPU 供应了1.8TB/s双向吞吐量,确保多达576个GPU之间的无缝高速通信。

图片源于网络

RAS可靠性引擎

这个RAS可靠性引擎则是基于AI实现,Blackwell 透过专用的可靠性、可用性和可掩护性 (RAS) 引擎,可增加聪慧复原能力,及早辨认出可能发生的潜在故障,尽可能缩短停机韶光。

图片源于网络

Secure AI安全AI功能

Secure AI卖力供应机密运算功能,同时Blackwell也是业界第一款支持EE-I/O的GPU,它可以在不影响性能的条件下,掩护你的数据安全,这对付金融、医疗以及AI方面有极大浸染。

图片源于网络

专用解压缩引擎

末了一项创新技能则是关于解压缩层面,资料剖析和资料库事情流程此前更多是仰赖CPU进走运算。
如果放到GPU中进行则可大幅提升端对端剖析的效能,加速创造代价,同时降落本钱。

图片源于网络

Blackwell配备了专用的解压缩引擎,利用过程中可以合营内置的Grace CPU实现每秒900 GB的双向频宽,并且还能兼顾最新的压缩格式 (如 LZ4、Snappy和Deflate等)。

超级核弹GB200

而两个B200 GPU与Grace CPU结合就成为本日“火热”的GB200超级芯片。
这款超级芯片的性能更加惊人,你以为H100已经很快了?不!
GB200更快,过去,在90天内演习一个1.8万亿参数的MoE架构GPT模型,须要8000个Hopper架构GPU。
现在,你只要2000个Blackwell GPU就可以完成。

图片源于网络

官方称,在标准的1750亿参数GPT-3基准测试中,GB200的性能是H100的7倍,供应的演习算力是H100的4倍。

图片源于网络

不止是性能更快更强,Blackwell GPU还相称节能。
还是同样的操作,90天内演习一个1.8万亿参数的MoE架构GPT模型,8000个Hopper GPU要耗费15兆瓦功耗,如今的Blackwell GPU仅需1/4的能耗就能实现。

图片源于网络

如果你须要更强劲的GPU,NVIDIA也面向有大型需求的企业供应成品做事,供应完全的做事器。
例如:GB200 NVL72,它将36个CPU和72个GPU插入一个液冷机架中,统共可实现720 petaflops的AI演习性能或1,440 petaflops(1.4 exaflops)的推理。

图片源于网络

与相同数量的72个H100比较,GB200 NVL72的性能绝对是逆天的存在,大模型推理性能可以提升30倍,并且本钱和能耗只有前者的1/25。

当然,最炸裂的要数适用于 DGX GB200 的 DGX Superpod,它将八个GB200 NVL72合二为一,统共有288个CPU、576个GPU、240TB内存和11.5 exaflops的FP4打算能力。
老黄更是在GTC上直言“DGX Superpod便是AI的革命工厂!

图片源于网络

结语

以上便是本次GTC 2024的硬件干系宣布,可能有玩家会说,怎么没有游戏显卡?实在按照过往老例,NVIDIA并没有在GTC上推出消费级显卡的习气。
不过本次NVIDIA在GTC 2024上推出的B100显卡所利用的架构是Blackwell,上面我们也讲过了,这是一个超过数据中央与消费级产品的架构,这也就意味着我们熟习的GeForce显卡该当也是同一架构的产品,不出意外的话,下半年我们就有望看到心心念念的RTX 50系显卡了!

相关文章

2020年中国电子信息行业品牌价值TOP10排行榜

从电子信息领域来看:华为技能有限公司、中国电子科技集团有限公司、遐想控股株式会社、京东方科技集团株式会社、广州广电运通金融电子株式...

人工智能 2025-04-09 阅读0 评论0