2024年9月19日

智东西12月3日消息,拥有超7900万用户的日本移动运营商NTT Docomo,正在开发图像识别解决方案等创新的AI驱动应用。这套AI解决方案的核心,正是NVIDIA推出的工作组服务器NVIDIA DGX Station。

不仅如此,NVIDIA DGX Station A100无需专门的数据中心环境,可支持多用户、异地完成AI工作负载处理。

目前,工业生产、金融、教育、科研等各个领域的数据科学团队对DLRM、GPT-3等复杂大数据模型的应用日益增多。

在这背后,全球数据信息总量已趋海量、各个行业领域智能化转型需求日益凸显,呼唤着AI基础设施提供更高的算力。

基于上述需求,支持多用户的数据中心服务器似乎成为数据科学团队的“标配”。但是,数据中心在满足数据科学团队对算力需求的同时,带来了新的问题。

首先,数据中心服务器对电力设置、冷却设施要求较高,在运行时噪音较大,因此,数据中心服务器通常需要部署在专门的环境中,难以满足数据科学团队多人分布式办公的需求。

据NVIDIA方面分享,针对上述痛点,NVIDIA推出的DGX Station工作组服务器,可提供高达2.5 petaFLOPS的算力、高达320GB的超大内存,在满足多用户使用需求的前提下,还能为AI基础设施部署“减负”,使用户在办公环境中处理大流量数据工作负载。

具体来说,相比数据中心服务器,DGX Station A100具备工作噪音小、无需配备数据中心级电源、无需专门的散热系统等优势。

我们了解到,DGX Station A100的最大耗电量为1.5kW,因此可被部署于世界各地的标准办公环境。

另外,DGX Station A100的运行温度在5~35°C之间,并采用一种全新定制的泵制冷剂两相冷却系统,操作更为简便。

泵制冷剂两相冷却系统是一个封闭的免维护系统,其无毒、不易燃、不冷凝。在单个回路中,制冷系统通过制冷剂的流动,同时冷却中央处理器,以及串联起来的四个GPU。

不仅如此,相比于OEM(代工生产)厂商提供的工作站产品,DGX Station A100建立在服务器级架构上,该架构采用与服务器级产品相同的组件。在能支持大型数据科学团队工作的前提下,DGX Station A100不需要数据中心托管系统。

基于上述特点,NVIDIA DGX Station系统可满足工业、科研、金融、教育等各个领域的大数据科学团队,以多用户、异地模式处理AI工作负载。

以德国人工智能研究中心为例,该研究中心正借助DGX Station构建能够应对重大社会和行业挑战的AI模型,其中包括能够帮助紧急服务快速响应自然灾害的计算机视觉系统。

相较于上一代互连技术,可使GPU之间通信带宽增加至原来的两倍,将数据密集型工作负载的GPU数据传输速度提高至每秒600GB。

MIG技术可将一个A100 GPU分割成多达7个独立的GPU实例,从而为不同大小的任务提供不同程度的计算,提高利用率和投资回报。

DGX Station A100是目前唯一支持MIG技术的工作组服务器。单一DGX Station A100最多可提供28个独立GPU实例以运行并行任务,并在不影响系统性能的前提下支持多用户。

我们了解到,目前,DGX Station V100的客户中,包含美国排名前列的七家医院、全球排名前六的汽车制造企业、美国排名前六的政府机构,以及十家全球领先的航空和国防企业。

“数据科学和AI研究团队可以使用与NVIDIA DGX A100系统相同的软件堆栈加速他们的工作,使其能够轻松地从开发走向部署。”他说。

互联网应用中,各类数据以指数级增长,日益对AI算力提出更高需求。特别是生物医药、材料分析等特定领域中的AI应用,更呼唤在内存、算力等各个方面进行提升。

在这一背景下,数据中心服务器成为金融、工业生产、教育、科研应用等各个领域的硬件标配。但同时,数据中心服务器对工作环境电力、温度、部署成本等方面的要求,成为大数据科学团队进行分布式工作的一道“拦路虎”。

这一背景下,NVIDIA于11月推出的工作组服务器NVIDIA DGX Station A100在满足各领域AI及大数据应用对算力、内存需求的同时,将AI基础设施部署及应用的门槛降低。

发表评论

邮箱地址不会被公开。 必填项已用*标注