2024年9月20日

3月21日,英伟达召开2023春季GTC大会,而此次大会的广告语为“切勿错过AI的决定性时刻。”

如今,时隔几天AI就会有惊人的更新,占据着各大热榜。各互联网巨头入局AI,而手握AI算力技术的英伟达似乎也在“拱火”,加速了AI行业的竞争。

在GTC 2023大会上,英伟达围绕AI推出了一个全新的H100 NVL GPU,据说这个GPU可将算力提速10倍。

ChatGPT让生成式 AI,成了时代的风口,微软、谷歌、百度、华为、阿里等科技巨头,纷纷备战随时开打。

此次GTC 2023上,黄仁勋向我们展示了一个巨大的专门用于训练大型语言模型(LLM)的GPU——H100 NVL。

它将英伟达的两个附带94GB HBM3显存的H100 GPU拼接在一起,可处理拥有1750亿参数的GPT-3大模型,可以说是H100的至尊版。

具体性能方面,黄仁勋将表示,“与HGX A100相比,现在一台搭载四对H100和双NVLINK的标准服务器速度能快10倍,可以将大语言模型的处理成本降低一个数量级。”而对比前代H100 SXM,其性能也有两倍提升。

售价方面,上代H100的官方建议价一直没公布,但日本市场之前预售的价格是475万日元,约合人民币24.7万元,而H100 NVL的价格肯定不止这个数。

2022年8月,美国监管机构,以为由,对NVIDIA A100、H100两款GPU实施禁令,不得销售给中国企业。这类芯片对于开发生成式人工智能技术至关重要。

之前我们就曾提到,你制作出的AI到底是人工智能,还是人工智障,主要看你跑通AI的算力和AI大模型。

跑好这个大模型,需要的GPU芯片数量高达2万枚。为此,微软Azure上也部署了数万枚A100、H100高性能芯片。

业内人士曾向科技每日推送透露,1万枚英伟达A100的算力下,分析数据需要2周时间,随后工程师再花费2周进行二次分析,筛选出更准确的数据。所以说数据更新一次大概需要1个月,算下来一年就更新12次。

而最新发布的H100 NVL的算力速度,是之前A100的十倍,可想而知,更新一次数据所需时间大大缩减,AI的迭代更新也会更频繁。

为躲过禁令,英达伟也是特意研制了一款针对中国的阉割版A800,用来代替A100。从参数对比来看,A800只是在A100的基础上,将NVLink高速互连总线GB/s。

并且,英伟达也为H100开发出了阉割版,名为H800。消息人士称,H800主要是将芯片间数据传输速率,降低至旗舰机型H100的一半左右。

不过英伟达发言人拒绝透露针对中国市场的H800与H100有何不同,只是说“我们的800系列产品完全符合出口管制规定。”

但要知道,GPU的性能更高,那么数据更新的速度更快、准确度也更高。就拿AI绘画为例,几个月前AI还不会画手,如今也顺利拿下了。

AI的应用已经开始影响我们生活、工作,此前微软宣布将ChatGPT植入office,实现一键生成PPT,将来AI的应用肯定会更广。

而英伟达几乎在高级GPU占据垄断地位,显然已经形成“霸权”。对于中国来说,国产GPU虽然有所突破,但是离量产上市,还需要很长一段时间。

如今,中国只能使用阉割版的显卡,而从H100 NVL到H100再到H800,我国的AI水平将会被拉得越来越大,未来想要追赶国际水平,自主GPU仍任重道远。

发表评论

邮箱地址不会被公开。 必填项已用*标注