11月13日,英伟达在官网宣布推出NVIDIA HGX™ H200,该平台基于NVIDIA Hopper架构,配备具有先进内存的NVIDIA H200 Tensor Core GPU,可处理生成式AI和高性能计算工作负载的大量数据。该公司预计服务器制造商和云服务提供商将于2024年第二季度开始出货搭载H200的系统。NVIDIA H200是首款提供HBM3e内存(速率更快、容量更大)的GPU,以加速生成式AI和大语言模型,同时推进HPC工作负载的科学计算。
云计算领域最新资讯
11月13日,英伟达在官网宣布推出NVIDIA HGX™ H200,该平台基于NVIDIA Hopper架构,配备具有先进内存的NVIDIA H200 Tensor Core GPU,可处理生成式AI和高性能计算工作负载的大量数据。该公司预计服务器制造商和云服务提供商将于2024年第二季度开始出货搭载H200的系统。NVIDIA H200是首款提供HBM3e内存(速率更快、容量更大)的GPU,以加速生成式AI和大语言模型,同时推进HPC工作负载的科学计算。