2024年9月20日

NVIDIA公司今日宣布,多家中国云服务提供商及系统制造商纷纷采用NVIDIA A100 Tensor Core GPU和NVIDIA技术,为企业和行业的各类AI应用提速。

今年5月,NVIDIA推出了首款基于NVIDIA Ampere架构的NVIDIA A100 Tensor Core GPU。迄今为止,包括阿里云、百度智能云、滴滴云、腾讯云等在内的众多中国云服务提供商纷纷推出搭载了NVIDIA A100的多款云服务及GPU实例。

在NVIDIA A100得到中国云服务提供商的迅速采用之外,最新发布的NVIDIA A100 PCIe版本以及NVIDIA A100 80GB GPU也迅速成为了包括新华三、浪潮、联想、宁畅等在内的中国领先系统制造商的首选。

NVIDIA亚太区销售与营销副总裁Raymond Teh表示:“当今世界,高性能计算与AI应用对于计算能力的需求呈指数级增长。NVIDIA A100专为世界上最严苛、最复杂的工作负载运算提供卓越性能而设计,这些需求广泛存在于AI、数据科学、科研计算等多个领域。”

阿里云、百度智能云、滴滴云、腾讯云的大型数据中心正在迁移至基于NVIDIA Ampere架构的平台,从而可以充分利用NVIDIA A100在AI推理和训练方面提供的非凡速度与可扩展性。图像识别、语音识别,以及包括计算流体动力学、计算金融学、分子动力学在内的GPU加速高性能计算场景的快速增长,催生了对于云实例的需求。云实例可以帮助用户执行更高级的实时工作负载。

NVIDIA A100不仅可以满足全球云服务提供商用户对性能的要求,而且还可以为全球用户提供强大的可靠性支持。中国云服务提供商正在采用A100来满足各行各业的多样化需求:

●阿里云已经发布了基于NVIDIA A100 打造的gn7 GPU系列云服务器,该产品主要面向AI训练和高性能计算应用,可提供新一代GPU计算实例。云服务器中的8块NVIDIA A100 GPU可通过NVIDIA NVLinkTM和NVSwitchTM技术实现先进的多GPU通信。这些NVIDIA技术可支持阿里巴巴gn7云服务器相比上一代平台实现最高20倍的AI性能,以及2.5倍的高性能计算速度。

●百度智能云即将推出基于NVIDIA A100打造的lgn3 GPU系列云服务器、vGPU 云服务器以及百度太行裸金属服务器产品,该系列产品最高将搭载8块 NVIDIA A100 GPU,8T NVMe SSD 磁盘以及百G带宽,主要面向AI训练/推理、高性能计算应用、科学计算等场景。基于A100 TF32新技术,百度新一代GPU云服务器提供20倍于 V100 FP32云服务器的计算能力。

●腾讯云已推出首款搭载NVIDIA A100的GPU云服务器GT4,其搭配AMD ROME CPU平台,支持PCIe 4.0技术以及最高180核的vGPU配置。适用于深度学习训练、推理、高性能计算、数据分析、视频分析等领域,可提供更高性能的计算资源,从而进一步降低使用成本,帮助企业、高校及研究人员聚焦模型的优化与创新。

包括新华三、浪潮、联想、宁畅等在内的中国领先系统制造商也在以前所未有的速度将NVIDIA A100 GPU引入到它们的产品中,并推出了多款针对不同应用场景的系列产品,为超大型数据中心提供基于NVIDIA Ampere架构的加速系统,进而为用户提供兼具超强性能与灵活性的AI计算平台。

●联想推出了支持NVIDIA A100的HG680X,其4U 8GPU的规格,可满足单机多卡形态的需求,且同时支持两种拓扑形式,可灵活搭配。本地存储支持最多8个NVMe SSD加16*2.5英寸SAS/SSD或24*2.5英寸的SAS/SSD,为存储容量提供保障。HG680X适用于大型深度学习模型训练场景和大量数据的推理场景,适应不同深度学习算法与改进,可满足互联网、金融、制造等不同行业客户的多样化需求。

●宁畅在X640 G30 GPU服务器上完成了8卡NVIDIA A100的适配,并通过了NVIDIA NVQUAL的官方认证。X640 G30可针对不同的应用场景进行GPU互联拓扑的调整,实现算力的完美升级。搭载NVDIA A100的X640 G30已在客户处完成了批量部署,大量应用于海量数据训练、深度学习、语音识别、图像识别等领域,极大提升了客户数据处理和训练的效率

NVIDIA(纳斯达克股票代码:NVDA)在1999年发明的GPU激发了PC游戏市场的增长,重新定义了现代计算机显卡,并且对并行计算进行了革新。最近,通过将GPU作为可以感知和理解世界的计算机、机器人乃至自动驾驶汽车的大脑,GPU深度学习再度点燃了全新的计算时代现代人工智能。更多信息,请访问。

发表评论

邮箱地址不会被公开。 必填项已用*标注