2024年9月20日

与英伟达(Nvidia)合作的VMware今天宣布,推出一个AI-Ready Enterprise平台,作为其核心虚拟机软件更新的一部分。

在去年秋天的VMworld 2020大会上,两家公司宣布了围绕在Nvidia图形处理器单元(GPU)上部署VMware虚拟机软件的一系列合作计划。

VMware今天还为其ESXi hypervisor增加了内存挂起功能,以减少升级时间和维护窗口。vSphere高可用性现在也支持持久内存(PMEM),并添加了对选择Hitachi Vantara UCP服务器的支持。

VMware提供的虚拟存储软件也已更新,以支持分解计算和存储节点的HCI Mesh软件,以及支持将存储的任何应用状态和关联数据迁移到另一台主机的vSphere主动性高可用性软件。vSAN 7 Update 2版本还增加了跨多个集群和工具的额外数据持久性功能,以便更容易地识别潜在问题的根本原因。

VMware正在考虑部署虚拟机软件,使多个工作负载以相同的方式共享同一个GPU处理器。虚拟机软件广泛应用于x86处理器。GPU比x86处理器贵得多,这就产生了一种使用虚拟机软件的经济动力。VMware云平台业务部门营销副总裁Lee Caswell表示,两家公司的合作对VMware软件进行了优化,增加的开销与单机GPU系统没什么区别。

Caswell表示,这一努力不仅将有助于人工智能的平民化,还将鼓励在VMware上标准化的企业IT组织采用基于GPU的系统。Caswell补充道,这种方法还提供了额外的好处,即让普通IT专业人员也可以访问AI工作负载。他说:“我们希望减少感知和实际的风险。”

英伟达企业与边缘计算副总裁兼总经理Justin Boitano表示,英伟达正努力将人工智能工作负载在生产环境中的部署时间从平均80周缩短至8周。Boitano指出,这种努力的一部分要求以一种普通IT管理员都熟悉的方式部署IT基础设施。他说:“我们想让它成为IT管理的钥匙。”

目前,大多数人工智能工作是由数据科学团队部署的,这些团队刚刚开始定义和使用一组最佳机器学习操作(MLOps)流程。目前还不清楚传统的IT管理员将在这些过程中扮演什么角色。然而,VMware显然认为,随着人工智能工作负载在企业中越来越普遍地部署,MLOps将成为现有IT管理流程的扩展。

发表评论

邮箱地址不会被公开。 必填项已用*标注