2024年9月20日

这两款GPU主要还是用在人工智能领域,高性能GPU缺货,正成为限制中国AI研发的最直接因素之一。

早在2022年8月26日,美国政府就向英伟达下达了通知,要求对A100、H100进行新的出口管制许可,并立即生效。

A100、H100是目前性能最强的数据中心专用GPU,市面上几乎没有可规模替代的方案。这两款GPU的断供,将对国内AI计算,带来严重影响。

其中,A100是英伟达于2020年推出,专用于自动驾驶、高端制造、医疗制药等AI推理或训练场景。

A100芯片可以提供更快速度和更高计算能力,从而加快模型训练和推理的速度,提高模型的性能和效率。

事情出现了反转,在英伟达的游说下,重新获得了美国政府的出口许可。在2023年3月1日之前,英伟达可以继续给中国提供A100产品。

现在,缓冲期限到了。中国企业已经很难获取英伟达A100芯片。现在国内的A100芯片储备,多是存货,剩余使用寿命约为4年-6年。

另根据公开信息,英伟达在介绍关于A100时,展示出的客户商标中,还包含了中国的互联网巨头阿里巴巴、百度、腾讯、京东、小米。

为此,微软Azure上部署了数万枚A100、H100高性能芯片。这是第一个采用英伟达高端GPU构建的大规模AI算力集群。

未来ChatGPT商业化后,所需的GPU芯片数量甚至超过3万枚,算下来要花4.5亿美元,真的十分烧钱。

而显卡越多的公司,AI算力就越强,生成的答案不仅更加准确,而且还更“高级”,就拿AI绘画为例,人像都可以做到真假难辨的程度。

而国内,拥有1万张GPU的企业,少之又少。国内云厂商,主要用的是英伟达中低性能产品,例如A10。

业内人士向科技每日推送表示,1万枚英伟达A100的算力下,分析数据需要2周时间,随后工程师再花费2周进行二次分析,筛选出更准确的数据。所以说数据更新一次大概需要1个月,算下来一年就更新12次。

如果GPU的性能更高,那么数据更新的速度更快、准确度也更高。如果手上仅有中低性能芯片,可想而知,中国AI水平与国外的差距就越大了。

拥有1万张英伟达A100的公司,国内大概只有一家,叫幻方量化,这是一家靠人工智能进行量化投资的对冲基金公司,于2015年创立。

目前,它是国内最大量化基金管理公司之一,在量化私募圈,素有“北九坤,南幻方”、“四大天王”的说法。

这1万张英伟达A100显卡,被用来构建超算集群“萤火二号”,它每天执行32000个训练作业,支撑着国内外50多个机构的AI模型研究工作。

中国的AI研发公司,能够获得的最佳替代品,应该就是英伟达的A800芯片,这是是A100的“阉割版”。

A800计算性能与A100基本相同,但数据传输速度被降低了30%。这会直接影响AI集群的训练速度和效果。

GPU数量不够或性能不够的结果是,AI推理和模型训练的准确度不足,这会直接导致中国企业即使做出类似的对话机器人,机器人的“智商”会远低于ChatGPT。

近几年,天数智芯、壁仞科技、摩尔线程等公司,都推出了自研的通用GPU产品。其中,2022年8月,壁仞科技发布的壁仞100,突破了全球的算力记录。但它尚未量产上市,后续能不能支棱起来,还需要时间的验证。

在英伟达的“霸权”之下,中国企业想在市场上打开局面,真的充满了挑战。现在,国产GPU厂商,在自研路仍任重道远。返回搜狐,查看更多

发表评论

邮箱地址不会被公开。 必填项已用*标注