2024年9月20日

泵制冷剂两相冷却系统是一个封闭的免维护系统,其无毒、不易燃、不冷凝。在单个回路中,制冷系统通过制冷剂的流动,同时冷却中央处理器,以及串联起来的四个

不仅如此,相比于OEM(代工生产)厂商提供的工作站产品,DGX Station A100建立在服务器级架构上,该架构采用与服务器级产品相同的组件。在能支持大型数据科学团队工作的前提下,DGX Station A100不需要数据中心托管系统。

基于上述特点,NVIDIA DGX Station系统可满足工业、科研、金融、教育等各个领域的大数据科学团队,以多用户、异地模式处理AI工作负载。

以德国人工智能研究中心为例,该研究中心正借助DGX Station构建能够应对重大社会和行业挑战的AI模型,其中包括能够帮助紧急服务快速响应自然灾害的计算机视觉系统。

相较于上一代互连技术,可使GPU之间通信带宽增加至原来的两倍,将数据密集型工作负载的GPU数据传输速度提高至每秒600GB。

MIG技术可将一个A100 GPU分割成多达7个独立的GPU实例,从而为不同大小的任务提供不同程度的计算,提高利用率和投资回报。

DGX Station A100是目前唯一支持MIG技术的工作组服务器。单一DGX Station A100最多可提供28个独立GPU实例以运行并行任务,并在不影响系统性能的前提下支持多用户。

我们了解到,目前,DGX Station V100的客户中,包含美国排名前列的七家医院、全球排名前六的汽车制造企业、美国排名前六的政府机构,以及十家全球领先的航空和国防企业。

“数据科学和AI研究团队可以使用与NVIDIA DGX A100系统相同的软件堆栈加速他们的工作,使其能够轻松地从开发走向部署。”他说。

互联网应用中,各类数据以指数级增长,日益对AI算力提出更高需求。特别是生物医药、材料分析等特定领域中的AI应用,更呼唤在内存、算力等各个方面进行提升。

在这一背景下,数据中心服务器成为金融、工业生产、教育、科研应用等各个领域的硬件标配。但同时,数据中心服务器对工作环境电力、温度、部署成本等方面的要求,成为大数据科学团队进行分布式工作的一道“拦路虎”。

这一背景下,NVIDIA于11月推出的工作组服务器NVIDIA DGX Station A100在满足各领域AI及大数据应用对算力、内存需求的同时,将AI基础设施部署及应用的门槛降低。

发表评论

邮箱地址不会被公开。 必填项已用*标注