2024年9月20日

2022年11月ChatGPT发布后, 2个月内月活用户即达1亿,令人瞩目。相比之下,iTunes、Twitter分别用了6.5和5年。ChatGPT类人工智能大模型应用爆发,导致全球对高算力GPU加速卡的需求激增,又受美国对华高科技行业逐渐严苛的限制威胁,中国科技公司纷纷大量采购英伟达芯片以应对即将到来的算力挑战。2022年12月A100售价为1万美元,2023年7月升至1.7万美元。

多地政府提出加强算力建设。算力建设获得从中央到地方的多项政策支持,2021年国家发改委就在《全国一体化大数据中心协同创新体系算力枢纽实施方案》中明确了国家算力枢纽建设方案。与此同时,为构建多层次算力设施体系,北京、上海、深圳等地政府陆续发布了一系列政策鼓励国企、政府部门支持民间算力资源。

AI算力租赁赋能产业链各方,市场潜力巨大。算力租赁是一种通过云计算服务提供商租用计算资源的模式,我们认为,云算力采用“化整为零”的方式赋能产业链各方,具备可持续性。需求侧,随着AIGC大模型所需算力狂飙,AI算力租赁市场潜力增加。根据OpenAI测算,自2012年至2018年,用于训练AI所需要的算力大约每隔3-4个月翻倍,每年头部训练模型所需算力增长幅度高达10倍,整体呈现指数级上涨。供给侧,算力生产商与云平台的合作由来已久,用户可以通过阿里云、腾讯云等平台租用英伟达A100等显卡与AI处理器,随着英伟达DGX云的推出,AI云算力进入新阶段。

回本周期短,产品毛利率可观。以A100(80G)租赁服务为例,A100(80G)显卡单价成本取10万元,现假设每张卡都得到充分租用,则按照2023年8月19日国内云算力平台租用A100(80G)服务器的均价15.1元/小时,考虑到各大平台竞争客户,经常性推出优惠活动,则假设平均实际租金为7.6元/小时,投入10亿元资金的实际回本周期为1.5-2年,按照平台最低定价计算,毛利率至少为46.3%。

哪些公司在AI算力租赁赛道占优?1)有先发优势,已有在手订单。目前手握订单的企业仍为少数,参考具有相似性的加密资产挖矿行业,率先卖出算力的公司能快速收回资金来扩大算力规模,从而将先发优势转化为领跑实力;2)具备AI算力运维能力:AI智能运维成主流趋势,但受制于运维价值难以衡量、数据共享体系难以形成等原因,自研运维发展进度缓慢,拥有运维可视化的第三方服务商成为大多数企业的选择。3)资金实力强,能大量购入AI算力。

投资建议:算力租赁的核心资源在于资金、客户和运维能力,按此逻辑建议关注:1)恒为科技:国内优秀网络可视化及智能系统平台提供商;2)中贝通信:投入14亿强势进军AI算力领域,已完成对科大讯飞订单的第一批交付;3)云赛智联:国资系IT服务商、资本实力雄厚;4)基础电信运营商:中国电信、中国移动、中国联通等;5)IDC厂商:润泽科技、光环新网、奥飞数据等

AI爆发导致GPU需求激增,美国限制收拢下芯片价格飙升。继2022年11月ChatGPT发布后,2个月内ChatGPT月活用户达1亿,而根据World of Engineering数据,iTunes、Twitter分别用了6.5和5年达到1亿用户。ChatGPT带来的人工智能爆发导致全球对高算力GPU加速卡的需求激增,又受美国对华高科技行业逐渐严苛的限制威胁,中国科技公司纷纷大量采购英伟达芯片以应对即将到来的算力挑战。2022年12月每颗A100价格约为1万美元,2023年7月Thinkmate上每颗价格升至1.7万美元。

算力建设获政策大力支持。算力资源是国家走向数字化强国过程中重要的基础资源,2021年国家发改委就在《全国一体化大数据中心协同创新体系算力枢纽实施方案》中明确了国家算力枢纽建设方案。与此同时,为构建多层次算力设施体系,北京、上海、深圳等地政府陆续发布了一系列政策鼓励国企、政府部门支持民间算力资源。

AI云算力采用“化整为零”方式赋能产业链各方。算力租赁是一种通过云计算服务提供商租用计算资源的模式,适用于各种大规模计算需求的场景,企业用户可以根据自己的需求租赁服务器或虚拟机实现大规模的计算任务,而无需拥有自己的计算资源。

对上游算力生产商而言,在算力硬件进入淡季、库存趋增时,能通过售卖云算力的方式,平滑收入的波动,并为旺季储备“有生”力量,及时满足回弹的市场需求;

算力买断:面向体量稍大且训练需求频繁的客户,往往采用买断独占模式,即GPU只提供给特定客户使用,往往需签订长约。

算力零售:面对中小客户,签约时间较短,中间会有空档期,但价格随行就市。若未来GPU价格持续走高,该部分租金价格也会走高。

摩尔定律中,集成电路上可容纳的元器件的数目,约每隔 18-24 个月便会增加一倍,性能也将提升一倍。

继摩尔定律后,英伟达 CEO 黄仁勋提出黄氏定律:每 12 个月 GPU 性能翻一倍,且不受物理制程约束。

根据OpenAI测算,自2012年至2018年,用于训练AI所需要的算力大约每隔3-4个月翻倍,总共增长了30万倍(而摩尔定律在相同时间只有7倍的增长),每年头部训练模型所需算力增长幅度高达 10 倍,整体呈现指数级上涨。

AI大模型训练和推理所需的算力可观,前期资金投入巨大。以ChatGPT为例,不考虑与日活高度相关的推理过程所需的算力,仅考虑训练过程,根据论文《Language Models are Few-Shot Learners》的测算,ChatGPT的上一代GPT-3 (1750亿参数版)所需的算力高达3640PF-days(即假如每秒做一千万亿次浮点运算,需要计算3640天)。已知单张英伟达A100显卡的算力约为0.6PFLOPS,则训练一次GPT-3(1750亿参数版),大约需要6000张英伟达A100显卡,如果考虑互联损失,大约需要上万张A100,按单张A100芯片价格约为10万元,则大规模训练就需要投入约10亿元,非头部厂商难以承担。而GPT4的模型参数更大,训练的标识符更多,所需算力更为可观。

4月5日,ChatGPT官网停止Plus付费项目的购买。在升级界面,OpenAI表示“因需求量太大暂停了升级服务”。这在一定程度上反映出,即便是OpenAI这样的头部模型厂商,也难以承载用户对ChatGPT的狂热需求。

从阿里云、谷歌云和甲骨文云等云平台的官网可以看出,用户可以通过其租用英伟达A100、英伟达V100、谷歌TPU等显卡与人工智能加速处理器。此类服务一般根据硬件性能或使用时长等方式定价。近日英伟达DGX云的推出,将AIGC云算力推入新阶段。

3月,英伟达在其2023年开发者大会上宣布推出DGX云:通过英伟达与微软云(Azure)、谷歌云(GCP)和甲骨文云(OCI)合作,企业通过一个浏览器就可以按月租用英伟达DGX AI超级计算机。DGX云是世界上第一台云中的AI超级计算机。DGX AI超级计算机配有8个H100 GPU模组,H100配有Transformer引擎,旨在处理ChatGPT类大模型。8个H100协同工作,效果如同一个巨型GPU,同时,H100可将大型语言模型的处理成本降低一个数量级。

我们认为,通过与云平台合作,将GPU等硬件计算服务以租用的方式,开放给广大企业,英伟达DGX云并非AIGC产业首例,但由于DGX AI超级计算机的杰出性能,DGX云将AIGC云算力产业推向了更高的起点。

以A100租赁服务为例,A100(80G)显卡单价取10万元,一亿元可以买1000张A100(80G)(10000/10=1000)。现假设每张卡都得到充分租用,则按照2023年8月19日国内云算力平台租用A100(80G)服务器的均价15.1元/小时,可得:

考虑到各大平台经常推出优惠活动以竞争客源,实际租金无法达到15.1元/小时,假设平台采用50%的优惠力度,则有:

假设服务器的使用年限为4年,则单卡成本摊销后为2.9元/小时(100000/(4*365*24)),则以目前算力租赁价格较低的平台智星云的定价5.4元/小时计算,毛利率最低为46.3%。

参考云挖矿市场规律,算力租赁先发优势或将化为领跑实力。在报告《Web3视角下的AIGC算力进化论》中,我们比较了加密资产挖矿和AIGC产业的异同点,提出:

1) AIGC(人工智能生成内容)产业耗电量可观,并将快速提升,大约会在1.6~7.5年间超过当前比特币挖矿产业耗电量,主要驱动因素是GPT类大语言模型在模型参数、日活和模型数量上的高速增长;

2) 和比特币挖矿类似,AIGC产业由算力驱动的内容处于高强度竞争中,参与者只有持续、快速生产出高质量内容,才能保证自己获取到的用户注意力不下降。

各大公司纷纷布局,订单签订成功仍为少数。据头豹研究院报告,国内各大公司已着手布局AI算力租赁,如利通电子和世纪华通合作建立世纪利通,在上海、深圳等地建立大数据中心以开展算力租赁业务,预期面向腾讯、华为等大客户;中科曙光和AMD深度合作,公司算力业务已与百度飞桨进行适配,为紫东太初、悟道等大模型训练提供算力。但目前国内已知接到订单的公司仍为少数,大部分公司仍处于前期投入阶段。

以中贝通信为例,中贝通信聚焦5G新基建、云网算力服务,是中国移动、中国电信、中国联通、中国铁塔的重要服务商。公司成立于1992年,主要为政府和行业客户提供基于云主机的算力、存储、云服务和解决方案,以及5G新基建、智慧城市与行业应用服务和光电子产品,在国际“一带一路”沿线国家开展EPC总承包业务。中贝通信与科大讯飞等知名企业展开合作,已有订单完成交付。2023年6月公司与科大讯飞就算力租赁核心内容达成初步意向,2023年8月向科大讯飞交付第一批服务器进行研测。另外,公司也积极将与核心客户湖北移动的合作范围拓宽至算力服务领域,力争在第四季度达到500P算力服务能力。

AI算力运维地位显著提升,采购第三方方案成为主流。随着大数据、云计算、人工智能等新兴技术的发展,AI运维成为不可或缺的科技力量和解决方案。据云计算开源产业联盟《中国 AIOps 现状调查报告(2023年)》,2023年超半数企业在智能运维方面投入资金对比去年有所增加,同时采购第三方解决方案代替自研成为多数企业运维的主要方式,在受访者中占38.1%,选择共研方式的企业占比上升至28.3%。

AI智能运维发展面临挑战,运维可视化或成破局关键。据云计算开源产业联盟的调查结果,当前智能运维能力建设仍面临众多挑战,比如运维的具体价值难以衡量、难以形成数据共享和知识传递等。而可观测能力的建设有助于提高数据价值、降低分析成本,或将成为推动AI运维继续发展的关键。

恒为科技是国内优秀的网络可视化及智能系统平台提供商。以恒为通信为例,公司成立于2003年,致力于为运营商网络、企业与行业IT、工业互联网和智慧物联网等领域提供业界先进的产品和解决方案,拥有多个一流的研发机构,服务全国客户的同时积极开拓国际市场,与国际知名厂商建立战略伙伴关系。

恒为科技深度布局算网可视化,解决方案有望率先落地。随着AI数据中心的算力和通信需求迅猛增长,恒为科技将业务从过去的网络可视化、信创基础产品,向智算可视化、智算基础架构方向扩展。公司依托深厚技术优势着力研发一系列新产品新技术,其中包括针对智算系统100G以太网/IB网、200G以太网/IB网的智算可视化运维系统,以及100G类IB的低延时国产智算加速网卡和交换机系统。2023年7月公司与中贝通信展开深度合作,有望率先落地面向智算领域的高速网络解决方案。

中贝通信进军智算领域,资金投入约14亿。AI算力租赁赛道要求公司具备较强的资金实力,以中贝通信为例,公司于2023年年初将智算算力服务作为新基建业务发展重点,目前已部署多个算力中心,累计投入金额约14亿元,预期建成后可提供算力13500P。

展望下半年,作为数字基建的新抓手,国内AI算力基建有望提速。目前各地政府、运营商等均提出AI基础设施发展纲要,且科技行业民营企业亦将AI算力基建作为转型方向,切入意愿较强,两者有望在下半年形成合力。

综上所述,我们认为:1)资金;2)订单;3)购卡渠道;4)运维能力是算力租赁业务的核心,其中前两者最为核心。

高端芯片断供:美国禁运A100等高端AI可用显卡的缓冲期限已到,国内的A100芯片储备多为存货,剩余使用寿命约为4-6年,未来若无法找到替代将对AI产业造成掣肘。

本报告的信息均来源于本公司认为可信的公开资料,但本公司及其研究人员对该等信息的准确性及完整性不作任何保证。本报告中的资料、意见及预测仅反映本公司于发布本报告当日的判断,可能会随时调整。在不同时期,本公司可发出与本报告所载资料、意见及推测不一致的报告。本公司不保证本报告所含信息及资料保持在最新状态,对本报告所含信息可在不发出通知的情形下做出修改,投资者应当自行关注相应的更新或修改。

本公司力求报告内容客观、公正,但本报告所载的资料、工具、意见、信息及推测只提供给客户作参考之用,不构成任何投资、法律、会计或税务的最终操作建议,本公司不就报告中的内容对最终操作建议做出任何担保。本报告中所指的投资及服务可能不适合个别客户,不构成客户私人咨询建议。投资者应当充分考虑自身特定状况,并完整理解和使用本报告内容,不应视本报告为做出投资决策的唯一因素。

本报告署名分析师在此声明:我们具有中国证券业协会授予的证券投资咨询执业资格或相当的专业胜任能力,本报告所表述的任何观点均精准地反映了我们对标的证券和发行人的个人看法,结论不受任何第三方的授意或影响。我们所得报酬的任何部分无论是在过去、现在及将来均不会与本报告中的具体投资建议或观点有直接或间接联系。

发表评论

邮箱地址不会被公开。 必填项已用*标注