希望本站能够帮您学到有用的知识,精简美观,不做大多数!EMLOG.CC

猫鼠游戏中的英伟达

战神2023-12-07 11:30:4240.5k好文分享

本站(emlog资源网)寻求有缘人接手,详细了解请联系站长QQ1493399855

猫鼠游戏中的英伟达 配图01

来源:硅星人 Pro

自步入人工智能时代以来,中国一直是英伟达的大客户。

2022 年,英伟达销售数据中,25% 来自中国客户,尤其是一些互联网大厂,他们对英伟达的算力产品,比如 H800,可以说是疯狂买买买。

但是随着美国在 2023 年 10 月更新了先进半导体和计算设备的出口管制,英伟达中国特供版 GPU A800 和 H800 都将在 11 月 17 号后禁止出口中国。而且更难处理的是,华盛顿新的出口管制下,几乎绝大多数高算力产品都不再能出口中国了。

不过英伟达有他们的小心思,25% 的巨大收入来源不可能说断就断,所以英伟达决定要和美国政府来一场猫鼠游戏,要在这只猫的眼皮底下,偷走奶酪。于是英伟达开始布局一款新的产品 ——H20。注意,这个 H20 是 “H” 和 “二十”,不是水分子的化学式。

H20 这款产品的浮点运算能力仅有 296TFLOPs,性能密度只有 2.9。这意味着它从纸面上看已经是一款超低性能产品,然而有意思的事情来了,如此低性能的产品,依然有公司会买,而且它继续引发美国的监管部门以及英伟达竞争对手的恐慌。在硅星人此前的文章《英伟达的美国对手们已经开始拿中国攻击英伟达了》中已经提到,英伟达的美国对手批评它不够美国,而英伟达认为这些批评不合逻辑;而最近的消息是,美国商务部长 Gina Raimondo 又点名英伟达,警告它停止为中国设计绕过出口管控的 AI 芯片。

所以,这个猫鼠游戏里,英伟达到底是如何做的?

 3A090 里的文字游戏

3A090,是华盛顿出口管制中的 ECCN 编码物项。3A090 特指特定高性能集成电路,当一颗芯片输入输出双向传输速率超过每秒 600GB,或算力超过 4800TOPS 时就属于 3A090,也就意味着禁止向中国出口。

上一次美国规定先进半导体出口措施的时候,英伟达旗舰产品 A100 和 H100 都被划在了禁止向中国出口的列表当中。英伟达当时采取的措施是推出低配版、但是同架构、且同样配备高带宽插槽版本(也就是 SXM 版本)的 A800 和 H800。这两块产品在性能上和原版的 A100、H100 几乎完全一致,甚至连内存芯片用的也都是 HBM2e 和 HBM3 这种当时的顶级内存芯片。颇有种孙悟空和六耳猕猴的感觉。

在上一次禁令发布的时候,美国只是对产品的具体型号做出了禁止出口的规定,这才有了 H800 和 A800 这种李逵李鬼的情况。所以这次新规就加入了更为严格的限制,规定了算力总和以及性能密度,所有人工智能产业能用到的高端张量计算 GPU 全都被划进了限制。

说得更直白一点,高性能的 GPU 不让卖,低性能的 GPU 买了也没用。

然而有意思的事情来了,禁令所限制的两个词汇 “性能密度” 和 “总算力”,其实是一个文字游戏。

什么是性能密度?国际上有两个说法,第一个是人工智能公司常用的,浮点计算能力 FLOPs,也就是每秒浮点操作数除以单位面积内的晶体管数量得来的。第二个是 MIPS,也就是每秒百万指令数除以单位面积内的晶体管数量得来的。

我们都清楚一个道理,那就是 “大人时代变了”。就拿英伟达刚推出的新品 H200 所搭载的 HBM3e 来说,这颗芯片采用了一种 3D 技术,通过立体空间堆叠的方式增加内存。如果只按面积来说,那这颗芯片的性能密度就很高,但是要按体积算,这颗芯片的性能密度也挺高,只是没有按面积算那么高而已。所以如果想要性能密度这个数字越小,算的时候以体积为单位就可以了。毕竟除法嘛,分母越大结果越小。

另外 MIPS 通常比 FLOPs 大,因为在计算过程中除了浮点,还有整数类型(INT)的运算。而且浮点自己还囊括了单精度(32 位)、双精度(64 位)等以所需存储空间来划分的类型。因为传统 FLOPs 计算方式,往往只会统计单精度和双精度,因此一颗张量计算用的 GPU,在数据测试的时候,也可以只报单精度、双精度的浮点,这样无论是它的 MIPS 还是 FLOPs 都会很低。毕竟除法嘛,分子越小结果越小。

总算力这块能玩的花活就更多了。总算力,这个词指的是每个核心的时钟速度总和。英伟达 H20,或者说整个 H 系列所采用的 Hooper 架构,它都是有多种核心的,比如专门用来做张量计算的 TensorFloat32 核心,还有脑浮点(BF16)核心。那刚才咱们聊了,计算 FLOPs 时,可以只计算单精度,双精度,也就意味着它在算力总和的测试中,就可以只计算单精度和双精度核心,而不再启用上述的这些张量计算核心。毕竟自然数加法嘛,加数越少结果越小。

综上,作为一个算力芯片厂商,他们可以很简单地把芯片数据弄得很低。这只是一种可能的假说,因为英伟达的最终目的不是通过 3A090 的限制,他是要把产品卖出去,赚取利润。一个性能极低的产品根本没有市场销路,就算设计出来了也没有实际的价值。

  H20 背后的真正秘密

区区是一张中上游的游戏显卡 RTX 4080,它的浮点运算能力都能达到 320TFLOPs,同时 RTX 4080 的性能密度有 6.8。H20 尊为一个张量计算用的 GPU,296 的浮点和 2.9 的性能密度,就好像是一个超级富二代独生子,从出生开始就享受世界上最优质的资源,顿顿早餐吃的煎饼果子都能加俩鸡蛋,喝酸奶从来用不着舔盖,结果到头来算个 10 以内加减法都能把 CPU 干冒烟了。

可我要是说 H20 的 Die 足足有 814 平方毫米,和 H100 完全相同,阁下应该如何应对?这并不是好钢用在刀背上,相反这正是 H20 的隐藏属性。也正因此,才让我更加相信,英伟达在 H20 的数据上,存在一些猫腻。

Die 指的是芯片的裸晶,一般来说,越是性能优越的芯片,Die 尺寸就会越大。比如 RTX 4080 的 Die 尺寸是 379,而目前性能最好的游戏显卡 RTX 4090 的 Die 尺寸是 609。因此,H20 实际上并不是低端芯片,至少从芯片的制程来讲,H20 是站在第一梯队的。

老鼠没有猫力气大,速度上也不占优势,如果老鼠不想被猫抓住,那就要想方设法地躲起来,不暴露自己。

诚然,H20 的浮点运算能力很低,可是 H20 SXM 的内存足足有 96GB,更恐怖的是它的带宽来到了 4Tbps。相较之下,1979TFLOPs 浮点运算能力的 H100 SXM 只有 80GB 的内存和 3.4Tbps 的带宽。在人工智能领域,尤其是现在火热的大语言模型中。内存是影响模型运行的关键,每 10 亿参数就要消耗 3 到 5GB 的内存,如果内存溢出则会严重影响模型的质量,产生不可预估的后果。那也就是说,在面对实际应用的时候,H20 能比 H100 承担更大规模的大语言模型。

可能你会问了,H20 的浮点运算能力不行啊,光有内存没用,跑的速度会慢。如果是 2022 年,那这的确是个大问题,毕竟没有人工智能公司会考虑低效率的 GPU,这样做会拖垮整个训练过程。可是 2023 年,英伟达的 TensorRT-LLM 已经问世,并且拥有 TensorRT-LLM 功能的 H200 即将要在 2024 年发售了。

TensorRT-LLM 是一个帮助 GPU 快速解决复杂计算的优化软件,搭载在 GPU 内部,类似于游戏显卡驱动一样。以 H100 为例,使用 TensorRT-LLM 后的 H100,在对一些媒体网站进行文章摘要时的工作效率,比使用前快出整整 1 倍。而在 700 亿参数的 Llama2 上,前者比后者快 77%。目前流通在市面上的 A800 也好,H800 也好,都没有搭载 TensorRT-LLM 功能。H20 很有可能,或者说板上钉钉的会搭载 TensorRT-LLM。

英伟达虽然一直以硬件销售为主,然而其软件能力非同小可。比如 DLSS,这是一种专门用来 “欺骗” 软件。不过 DLSS 所骗的目标并不是用户,而是显卡。当计算机需要大量图形计算时,DLSS 会把图形以极低分辨率的形式交给显卡,它去骗显卡说:“你干这么点活就得了,剩下的不用你操心”,再通过 DLSS 技术还原成高分辨率的图形,这会大幅减轻显卡的压力,进而提升画面效果。

回到现在,TensorRT-LLM 也是一个给 GPU 减压减负的软件技术,这就让 GPU 能够表现出本不该属于它的性能。此外,如果英伟达真的隐藏了 H20 的真实数据,实际上 H20 的表现力很有可能会超过 H100。

你以为英伟达是壁虎,断尾求生。实际上英伟达压根不打算 “阉割”,他们想的是换一种方式,绕过监管,达到目的。毕竟,如果 H20 算力很低,就算可以出口中国,也没有买家愿意购买这样的产品。当猫堵住了一个老鼠洞,老鼠还是能有办法溜出来,因为不可能只有一个出口。

不只是英伟达自己的猫鼠游戏

英伟达有个好朋友叫做 SK 海力士,英伟达最新旗舰产品 H200 SXM 上的内存芯片 HBM3e,就是 SK 海力士的。目前他们正联手开发 HBM4,以颠覆整个产业。英伟达也是 SK 海力士最大的客户之一,如果英伟达失去了中国市场,那么 SK 海力士的损失也会是巨大的。

最重要的是,GPU 是一个横跨软硬件两个领域的事情,造就了一个附加值极高的交易体系。比如英伟达的 Hooper 架构,也就是 H100、H200、H800、H20 所采用的架构,多种同架构的 GPU 并联在一起,能够更好地分配计算资源。一般来说,人工智能企业都是买很多块 GPU,而不是就买一块。所以当人工智能公司进行算力扩展的时候,GPU 的第一个附加价值就体现出来了,它会要求人工智能公司只能接着购买该公司的 GPU 产品。

第二个附加价值在于算法的开发,不同的 GPU 产品,比如 AMD 的 MI,英特尔的 Gaudi,他们的差别不只有浮点运算能力、性能密度这些,还有指令集、逻辑芯片、底层语言上的差异等等。一个能在 H100 上运行的算法,不一定就完美适配 MI300X。换言之,如果开发伊始就是基于某公司产品的话,后续的开发大概率也只能基于同公司,甚至是同架构的产品。

第三个附加价值是反向的,由人工智能公司给予 GPU 公司。在算法的开发过程中总是会遇到各种各样的难题,当这些难题反馈给 GPU 公司时,GPU 就会清楚下一代产品应该做怎样的改进。就比如上文说的 HBM4,英伟达和 SK 海力士要非常清楚目前 GPU 在当前场景下还有哪些不足,才能做出足以颠覆产业的产品。

正是这些附加价值,绑定了 GPU 公司和人工智能公司,形成了复杂的裙带关系。所以英伟达不能失去中国市场,不单单是为了 25% 的销售额,还有比销售数字更重要的这些附加价值。中国的人工智能水平增长非常迅速,英伟达深知其中的利害。

在猫鼠游戏中,老鼠之间也会互相打配合,有些负责吸引猫的注意力,有些负责搬运奶酪。还有一点,猫和老鼠都明白两者虽然对立,但是存在着一个用来维持双方平衡的灰色空间,既不黑也不白,两者都能生存。猫不能一下子将老鼠全抓死,那样猫就失去了作用,老鼠也不能太猖狂,那样会压缩猫的生活空间。

转载声明:本站发布文章及版权归原作者所有,转载本站文章请注明文章来源!

本文链接:https://www.emlog.cc/article/7bfdbc66131da33e.html

在线赏热舞
热门文章
随机文章
热门标签