2024年9月17日

但更秀的是,没人会因此质疑他们违反广告法,因为在 AI 时代,对手们真只能眼巴巴地看着英伟达的车尾灯。

以 700 亿参数的 LLama2 大模型为例, H200 推理速度几乎比前代的 H100 快了一倍,而且能耗还降低了一半。

今年 8 月的时候, SK 海力士推出 HBM3e 之后,据宣称单颗带宽可以达到 1.15TB/s ,相当于在 1 秒钟内传输了 230 部 FHD 高清电影(每部容量 5G )。

在 SK 海力士官宣 HBM3e 之后不久,包括三星、美光在内的内存厂商们,都陆续跟进了这一技术。

比起技术升级更方便的是, H200 和 H100 都是基于英伟达 Hopper 架构打造的。

之前各个大厂忙着打造自家的大模型,对 GPU *的需求毫无疑问就是训练,所以当时大家的需求是提升训练能力。

而如今,随着 AI 大语言模型不断落地应用,训练模型在厂商眼中可能已经是牛夫人了,大家反而全去卷推理速度。

而且根据瑞杰金融集团估计, H100 芯片售价在 2 万 5-4 万美金之间,那加量后的 H200 只会比这高。

而如今像亚马逊、谷歌、微软和甲骨文等大厂的云部门,已经付完钱排排站,就等着明年 H200 交货了。

今年初创公司、大厂、政府机构等等为了抢一张 H100 挤破脑袋的样子还在上演,所以明年H200 的销量根本不用愁。

“ 是人是狗都在买显卡 ” ,去年说完这句话的马斯克也不得不转头就加入 “ 抢卡大军 ” 。

也就是明年英伟达还是打算卖 200 万颗 H100 芯片,也能侧面看出, AI 芯片是多么不愁卖。

更进一步的是特斯拉,他们就在 7 月推出了由定制 AI 芯片 D1 打造的 Dojo 超级计算机,用来训练自动驾驶系统。

当时摩根士丹利直接吹了一篇研报说:特斯拉这波下来,比用英伟达的 A100 足足省下了 65 亿美元。

就好比英伟达的芯片是一锅大杂烩,谁来了吃都能吃饱饱;而自研芯片虽然只是小碗菜,但它可以按照个人口味做,虽然做得少、但更合胃口。

但就像我们前面说的,这次 H200 其实只是一个 “ 中期改款 ” ,还不足以打消其他厂商们的小心思。

你看像是即使强如Meta早在 2021 年就意识到,自己怎么干都比不上英伟达的GPU性能,转头就从老黄那下了几十亿订单( Meta 最近好像又有点自研的心思了 )。

毕竟 2022 年台积电 “ 只 ” 占了全球晶圆代工产能的 60% ,而英伟达如今已经占据了可用于机器学习的图形处理器市场 80% 以上的份额。

知乎:英伟达发布世界最强 AI 芯片 H200,性能飙升90%,Llama 2 推理速度翻倍,有何重要意义?

发表评论

邮箱地址不会被公开。 必填项已用*标注