2024年9月20日

带你一分钟了解,被美国限制出口至中国的两款高端显卡A100和H100, 很多人想知道新闻中提及的A100 GPU芯片和H100芯片有什么区别?为何能让美国政府直接出面干涉限制存粹的民用设备市场交易行为, 今天带你了解这两款显卡在Ai超算中是如何强大的存在。

首先A100是H100显卡的上一代产品,早在2020年就已发布,使用7纳米工艺,支持AI推理和训练,我们着重的说一说A100的下一代显卡H100,该显卡是2022年3月发布,可谓是核蛋级性能显卡, 使用了台积电4纳米工艺具备800亿个晶体管,采用了最新Nvidai Hopper架构,且配备了英伟达有史以来最大的80GB显存容量,同时显存还支持HBM3最高带宽,可达3TB每秒,而NVLink的带宽900GB每秒,是PCIE5.0的7倍,比上一代的A100显卡高一倍,显卡对外总带宽达到超高的4.9TB每秒。

性能上H100 GPU相对于上一代的A100来说可谓是质的飞跃,各项基础性能是A100的三倍之多,而FP8的性能指标更是A100的六倍之多, H100支持通过DGX系统串联组合成八合一的巨型GPU,该组合GPU一共640GB的HBM3显存,可以提供至今最快的单卡AI计算性能

而更疯狂的是可以将32个DGX系统组合成DGX POD运算中心,可以直接得到20480GB的HBM3显存,以及史诗级的768TB每秒的显存带宽, 要知道2022年全球互联网数据吞吐总量也不过是接近800TB每秒,拥有如此强大的运算能力,也不难解释为何美国政府直接出面干涉了,

如此高性能的显卡你肯定想知道价格, H100的单片显卡售价就达到了24万元左右,即便是这个天价,在国内仍然有一众数据中心已经预定了大量的H100系列GPU显卡, 该显卡的主要运用场景是大型AI学习以及人工智能运算和大型的云计算中心等。

以上就是关于英伟达A100显卡和H100显卡的参数性能对比,这也是为何被美国限制出口至中国的主要原因, 欢迎评论区一起讨论我们国家如何应对!

发表评论

邮箱地址不会被公开。 必填项已用*标注