2024年9月20日

英伟达透露,下一代Blackwell B100 GPU也将在2024年推出,性能已经“望不到头”。

据《通信产业报》全媒体记者了解,H200配备了141GB的HBM3e内存,运行速率约为6.25Gbps,六个HBM3e堆栈为每个GPU带来4.8TB/s的总带宽。原有的H100配备80GB的HBM3,对应的总带宽为3.35TB/s,这是一个巨大的进步。相比于H100的SXM版本,H200的SXM版本将内存容量和总带宽分别提高了76%和43%。不过从原始计算能力来说,H200不会有太大的变化,只是在个别应用场景里会受益于更大的内存配置。

英伟达表示,根据使用Meta的70B大模型Llama 2进行的测试,H200的输出速度几乎是H100的两倍。基于与H100相同的Hopper架构,H200将具有H100的一切功能,例如可以用来加速基于Transformer架构搭建的深度学习模型的Transformer Engine功能。

毋庸置疑,与作为前辈的A100和H100相比,H200最大的变化就是内存。搭载“世界上最快的内存”HBM3e技术的H200在性能上得到了直接提升,141GB的内存几乎是A100和H100最高80GB内存的2倍,4.8TB每秒的带宽则达到了A100的2.4倍,也显著高于H100 3.35TB每秒的带宽。

英伟达此次最新推出的H200 GPU,基于强大的NVIDIA Hopper超级芯片架构,专为处理超大规模的大型模型训练和推理而设计,非常适合生成式人工智能和高性能计算(HPC)任务。

随着AI大模型的部署加速,业界对AI芯片的需求供不应求,除了各中芯片性能升级,大家的关注点主要在于中国企业能否得到这些芯片。H200是属于英伟达的狂欢,作为中国企业,目前我国AI芯片研发现状正逐步增强,从低端向高端市场延伸,不断打破技术壁垒,开拓新的应用领域。

发表评论

邮箱地址不会被公开。 必填项已用*标注