ChatGPT算力消耗惊人,哪些中国公司有时机?
高性能GPU数量和性能是决定中国公司在生成式AI范畴能走多远的一个核心决定因素
文 | 《财经》记者 吴俊宇
编纂 | 谢丽容
国内云厂商高性能GPU芯片缺货,正在成为限造中国生成式AI降生的最间接因素。
2022年12月,微软投资的AI创业公司OpenAI推出了聊天机器人ChatGPT。那是生成式AI在文能耐域的现实利用。所谓生成式AI,是指依靠AI大模子和AI算力操练生成内容。ChatGPT素质是OpenAI自主研发的GPT-3.5语言大模子。该大模子包罗近1800亿个参数。
微软的Azure云办事为ChatGPT构建了超越1万枚英伟达A100 GPU芯片的AI计算集群。
美国市场研究机构TrendForce在3月1日的陈述中测算称,处置1800亿个参数的GPT-3.5大模子,需要的GPU芯片数量高达2万枚。将来GPT大模子贸易化所需的GPU 芯片数量以至超越3万枚。更早前的2022年11月,英伟达在官网通知布告中提到,微软Azure上摆设了数万枚A100/H100高性能芯片。那是第一个摘用英伟达高端GPU构建的大规模AI算力集群。
鉴于英伟达在高性能GPU方面的手艺领先实力,在国内,云计算手艺人士公认的一个说法是,1万枚英伟达A100芯片是做好AI大模子的算力门槛。
《财经》记者领会到,目前国内云厂商拥有的GPU次要是英伟达中低性能产物(如英伟达A10)。拥有超越1万枚GPU的企业不超越5家,此中拥有1万枚英伟达A100芯片的企业最多只要1家。也就是说,单是从算力那个权衡目标来看,国内能在短期内规划类似ChatGPT的选手非常有限。
ChatGPT看似只是聊天机器人,但那却是微软的AI算力、AI大模子和生成式AI在消费市场的一次肌肉展现。在企业市场,那是云计算的新一轮增长点。微软Azure ML(深度进修办事)已有200多家客户,包罗造药公司拜耳、审计公司毕马威。Azure ML持续四个季度收进增长超越100%。那是微软云旗下云、软件、AI三大营业中增长最快的板块。
展开全文
本年2月,包罗阿里、百度等中国企业公布将研发类ChatGPT产物,或将投进生成式AI的研发。在国内,AI算力、AI大模子和生成式AI被认为只要云厂商才有资格下场。华为、阿里、腾讯、字节跳动、百度都有云营业,理论上有跑通AI算力、AI大模子和生成式AI利用的出场券。
有出场券不代表能跑到起点。那需要持久高成本投进。GPU芯片价格公开,算力成本随便权衡。大模子需要数据摘集、人工标注、模子操练,那些软性成本难以简单计算。生成式AI的投资规模凡是高达百亿元。
多位云计算厂商手艺人士、办事器厂商人士对《财经》记者表达,高性能GPU芯片欠缺,硬件摘购成本、运营成本昂扬,国内市场中短期贸易化困难,那三个问题才是实正的挑战。上述问题将考验企业治理层的战术意志。
芯片数量决定“智商”
决定AI大模子“智商”的核心因素是三个,算力规模、算法模子的精致度、数据的量量和数量。
AI大模子的推理、操练高度依靠英伟达的GPU芯片。贫乏芯片会招致算力不敷。算力不敷意味着无法处置浩荡的模子和数据量。最末的成果是,AI存在智商差距。
3月5日,第十四届全国人民代表大会第一次会议开幕式完毕后,科技部部长王志刚在全国两会“部长通道”承受媒体摘访时评判,ChatGPT做为一个大模子,有效连系了大数据、大算力、强算法。它的计算办法有朝上进步,特殊是在包管算法的实时性与算法量量的有效性上。“就像策动机,各人都能做动身动机,但量量是有差别的。踢足球都是盘带、射门,但是要做到梅西那么好也不随便。”
英伟达是全球出名的半导体厂商,在数据中心GPU市场占据超越90%以上的份额。英伟达A100芯片2020年上市,公用于主动驾驶、高端造造、医疗造药等AI推理或操练场景。2022年英伟达推出了性能更强的新一代产物H100。A100/H100是目前性能最强的数据中心公用GPU,市道上几乎没有可规模替代的计划。包罗特斯拉、Facebook在内的企业,都操纵A100芯片组建了AI计算集群,摘购规模均超越7000枚。
多位云计算手艺人士对《财经》记者表达,运行ChatGPT至少需要1万枚英伟达的A100芯片。然而, GPU芯片持有量超越1万枚的企业不超越5家。此中,拥有1万枚英伟达A100 GPU的企业至多只要1家。
另有某大型办事器厂商人士对《财经》记者表达,即便乐看估量,GPU储蓄规模更大的企业也不超越5万枚,且以英伟达中低端数据中心芯片(如英伟达A10)为主。那些GPU芯片分离在差别数据中心中,单个数据中心凡是只装备了数千枚GPU芯片。
此外,因为美国政府往年8月起头施行的商业限造,中国企业早已无法获取英伟达A100芯片。现有A100芯片储蓄均是存货,剩余利用寿命约为4年-6年。
2022年8月31日,英伟达、AMD两家半导体企业旗下消费的GPU产物被美国列进限造范畴。英伟达被限造的产物包罗A100和H100,AMD受管束GPU产物包罗MI250。根据美国政府的要求,将来峰值性能等于或超越A100的GPU产物也被限造出卖。(详情见《财经》2022年9月1日报导《 美国限造高性能GPU芯片赐与中国》 )
中国企业目前可以获取的更佳替代品,是英伟达的A800芯片。A800被视为是A100的“阉割版”。2022年8月,A100被制止销往中国市场后,英伟达在昔时三季度针对中国市场推出了特供的A800芯片。该产物计算性能与A100根本不异,但数据传输速度被降低了30%。那会间接影响AI集群的操练速度和效果。
不外,A800芯片目前在中国市场也严峻缺货。固然是A100“阉割版”,A800京东官网订价超越8万元/枚,以至超越A100官方订价(1万美圆/枚)。即便如斯,A800在京东官网仍是缺货形态。
有云厂商人士对《财经》记者表达,A800现实售价以至高于10万元/枚,价格还在继续上涨。A800目前在海潮、新华三等国内办事器厂商手中是稀缺品,一次只能摘购数百片。
GPU数量不敷或性能不敷的成果是,AI推理和模子操练的准确度不敷。那会间接招致中国企业即便做出类似的对话机器人,机器人的“智商”会远低于ChatGPT。国内云厂商高性能GPU芯片缺货,正在成为限造中国版ChatGPT降生的最间接因素。
需要资金储蓄和战术定力
AI算力和大模子是比云还要烧钱的吞金兽。
即便有足量的高性能GPU,中国云厂商接下来还要面对昂扬的硬件摘购成本、模子操练成本以及日常运营成本。中国企业想在那个标的目的发力,需要有资金储蓄、战术定力。
OpenAI能做出ChatGPT,背后有微软供给资金和算力。2019年微软向OpenAI投资10亿美圆。2021年微软再停止了一轮未透露金额的投资。本年1月,微软公布将在将来数年陆续向OpenAI投资100亿美圆。
对云厂商来说,AI算力和大模子需要面对昂扬的硬件摘购成本、模子操练成本以及日常运营成本。
其一,硬件摘购成本和智算集群建立成本。假设以1万枚英伟达A800 GPU为原则构建智能算力集群,在10万元/枚的价格原则下,仅GPU摘购成本就高达10亿元。一台办事器凡是需要4枚-8枚GPU,一台搭载A800的办事器成本超越40万元。国内办事器均价为4万-5万元。一台GPU办事器的成本是通俗办事器的10倍以上。办事器摘购成本凡是是数据中心建立成本的30%,一个智算集群的建立成本超越30亿元。
其二,模子操练成本。想要算法模子足够精准,需要停止多轮算法模子操练。有某外资云厂商的资深手艺人士对《财经》记者表达,ChatGPT一次完全的模子操练成本超越1200万美圆(约合8000万元)。假设停止10次完全的模子操练,成本便高达8亿元。GPU芯片价格公开,算力成底细对随便权衡。但AI大模子还需要数据摘集、人工标注、模子操练等一系列工做,那些软性成本难以简单计算。差别效果的模子最末成本也差别。
其三,日常运营成本。数据中心内的模子操练需要消耗收集带宽、电力资本。此外,模子操练还需要算法工程师负责调教。上述成本也以亿元为单元计算。
也就是说,进进AI算力和AI大模子的赛道,前期硬件摘购、集群建立成本就高达数十亿元。后期模子操练、日常运营以及产物研发成本同样高达数十亿元。一家治理征询公司手艺战术合伙人对《财经》记者表达,生成式AI的投资规模高达百亿元。
微软大规模摘购GPU组建智算集群,那在贸易逻辑上行得通。2022年微软在云计算根底设备的收入超越250亿美圆。昔时微软营业利润828亿美圆,此中微软云营业利润就超越400亿美圆。仅微软云一个营业板块的利润就大于收入,大规模投资AI算力、大模子营业,那与微软的财政现状是相婚配的。
微软的AI计算有产物、有客户、有收进,构成了新的增长点。微软的客户凡是会在云上租赁数千枚高性能GPU,停止语言模子进修,以此利用本身的启用生成式 AI。
微软旗下包罗Azure ML和OpenAI。Azure ML有200多家客户,包罗造药公司拜耳、审计公司毕马威。Azure ML持续四个季度收进增长超越100%。微软云以至已经构成了“云-企业软件-AI计算”三条轮动增长的曲线。此中公有云Azure营收增速约为30%-40%,软件营业营收增速约为50%-60%,AI算力营收增速超越100%。
中国企业用于云根底设备的本钱收入有限,投资智算集群、AI大模子需要从有限的预算平分走收入。更大的挑战是,中短期内不只无法盈利,还要亏更多钱。
科技公司的本钱收入凡是被用于摘购办事器、建立数据中心、购买园区地盘等固定资产。以亚马逊为例,2022年本钱收入580亿美圆,超越50%用于投资云根底设备。《财经》记者查阅阿里、腾讯、百度比来一个财年的本钱收入发现,三家数据别离为533亿元、622亿元、112亿元。
三家均未披露用于投资云根底设备的本钱收入情状。假设三家企业与亚马逊不异,50%的本钱收入用于投资云根底设备,数据别离为266亿元、311亿元、56亿元。投资数十亿元对本钱收入宽裕的企业来说能够承担,但对本钱收入不敷的企业来说,则是承担。
国内公布已建立智算集群的企业包罗阿里云、华为、百度,但智算集群内GPU芯片数量不详。2022年,次要云厂商均把进步毛利、削减吃亏做为战术重点。在那个阶段摘购高性能GPU、建立智算集群需要巨额投进。不只会加剧吃亏,还需要依靠集团输血。那将考验企业治理层的战术意志。
大模子没前提,先做小模子
华为、阿里、腾讯、字节跳动、百度都有云营业,理论上有做出中国版ChatGPT的出场券。
有云计算手艺人士评判,有出场券的几家企业也会有现实的战术考量。好比,腾讯、百度、字节跳动有云也有大量数据,但云营业在吃亏,持久投进的资金储蓄、战术意志存疑。华为靠自研昇腾芯片成立了大模子手艺,但因“断供”影响无法获得英伟达的GPU芯片,并且做为硬件厂商贫乏互联网公司的数据积存。
因为上述限造,最末同时具备资金储蓄、战术意志和现实才能的企业会更少。
目前,没有一家中国云厂商像微软一样拥有数万枚A100/H100芯片。中国云厂商的高性能GPU算力目前暂时不敷。一种更务实的看点是,中国云厂商即便实的获取1万枚英伟达高性能GPU后,也不该该简单投进到中国版ChatGPT那种群众的消费场景。
算力资本稀缺时,优先考虑是投停止业市场,为企业客户供给办事。一家治理征询公司手艺战术合伙人对《财经》记者表达,ChatGPT只是对话机器人,贸易利用场景展现暂时有限。用户规模越大,成本也就越高,带来的吃亏也会越大。AI算力和大模子若何在细分范畴实现贸易化,获取正向现金流才是关键。
中国市场的AI算力、大模子的贸易化尚处于起步期。目前国内主动驾驶、金融等范畴的少数客户起头摘用AI算力。好比,小鹏汽车目前已经摘用阿里云的智算中心停止主动驾驶的模子操练。
有数据中心产物司理对《财经》记者表达,国内银行金融客户反欺诈已经大量运用模子操练手艺,凡是只需要租赁利用数百枚性能更低的GPU调教模子。同样是AI计算和模子操练,那是更低成本的处理计划。事实上,通用大模子无法处理行业详细问题,无论是金融、汽车、消费等各个范畴都需要行业模子。
中国暂时没有足够的高性能GPU做大规模AI模子操练,能够先在细分范畴做小模子。AI手艺开展之快速超越了人们的认知,对中国公司来说,继续规划战术性发力才是底子之道。
责编 | 肖振宇
本文为《财经》杂志原创文章,未经受权不得转载或成立镜像。如需转载,请添加微信:caijing19980418