2024年9月20日

英伟达 NVIDIA A100、A800、H100系列都有一些,未来的人工智能和算力产业基本都离不开这个产业和高端产品:

A100系列相信大家都比较熟悉,相比于英伟达前一代的 Volta GPU,A100 的性能提升了 20 倍,采用了英伟达的Ampere架构,拥有6912个CUDA核心和432个张量核心。它还配备了40GB、80GB或者160GB的高速HBM2显存,以及面向AI和机器学习的混合精度计算单元。非常适合于人工智能、数据分析、科学计算和云图形工作负载。芯片由 540 亿个晶体管组成,打包了第三代 Tensor 核心,并具有针对稀疏矩阵运算的加速功能,对于 AI 推理和训练来说特别有用。此外,每个 GPU 可以划分为多个实例,执行不同的推理任务,采用 Nvidia NVLink 互连技术可以将多个 A100 GPU 用于更大的 AI 推理工作负载。

A800被视为是A100的“阉割版”,英伟达针对中国市场推出了特供芯片。A800计算性能与A100基本相同,但将NVLink高速互连总线GB/s。

至于H系列是目前主打的旗舰产品,未来都将会是H系列占主导,H100 是一款针对大模型专门优化过的芯片,使用台积电 5nm定制版本制程(4N)打造,单块芯片包含 800 亿晶体管。同时也是全球首款 PCI-E 5 和 HBM 3 显卡,一块 H100 的 IO 带宽就是 40 terabyte 每秒。返回搜狐,查看更多

发表评论

邮箱地址不会被公开。 必填项已用*标注