文 | 吴俊宇
编辑 | 谢丽容
大模型竞争正在加剧。2023年之前,1万枚AI(人工智能)芯片的数据中央是根本大模型的入场券。2024年往后,根本大模型有朝着10万枚AI芯片为根本的方向演进的趋势。
在这一背景下,微软、亚马逊、谷歌、阿里等拥有云打算业务的科技公司都在加大投入力度。
大模型是“吞金兽”。硬件层面,它须要巨额成本支出用于采购芯片和做事器,租赁地皮培植数据中央。软件层面,它须要持续花费算力进行模型演习、迭代。这带来的直接结果是,微软、亚马逊、谷歌、阿里这几家公司的成本支出增速在大幅增长。
微软、亚马逊、谷歌2024年上半年成本支出总和高达486亿美元,同比增长75%,达到了2019年以来的最高峰。阿里集团财报显示,阿里2024年上半年成本支出232.4亿元,同比增长123.2%。阿里2024年上半年成本支出增速也达到了2019年以来的高峰。
国际市场调研机构Gartner数据显示,阿里云目前是环球第四大云厂商,份额为7.9%,仅次于微软、亚马逊、谷歌。作为一家中国云厂商,它在大模型浪潮中的动作尤其值得关注。
阿里云为何要采纳如此大力度进行AI投资?阿里云的AI根本举动步伐投资还会持续多久?9月19日,阿里集团CEO(首席实行官)、阿里云智能董事长兼CEO吴泳铭在云栖大会上对此表达了几个主要判断。
其一,过去22个月,AI发展速率超过其他历史期间,目前依然处于大模型变革早期。大模型技能快速迭代,技能可用性大幅提升。模型推理本钱指数级低落,已远超摩尔定律。推理本钱是运用爆发的关键,阿里云会努力降落本钱。全天下前辈模型竞争的投入门槛,将达到数十亿、数百亿美元的级别。
其二,CPU(中心处理器)主导的打算体系,正在加速向GPU(图形处理器)主导的AI打算体系转移。新增算力市场,超过50%的新需求由AI产生,这一趋势还在扩大。所有行业都须要性能更强、规模更大、更适应AI需求的根本举动步伐。过去一年,阿里云投资新建了大量的AI算力,仍不能知足客户需求。
吴泳铭表达了阿里连续加码AI算力投入的决心。他直言,新技能早期渗透率比较低,大部分人本能会产生疑惑,这很正常。但新技能会在疑惑中发展,让很多人在迟疑中错过。阿里云正在少有的高强度投入AI技能研发和根本举动步伐培植。
阿里2025财年一季度(即2024年二季度)财报电话会中,阿里管理层曾表露,未来几个季度,估量将连续保持高增速的人工智能成本支出。
加码算力投入发展大模型须要持续的AI算力投入。这些投入乃至不但是一次性支出,而是持续多年支出。由于大模型要迭代性能升级,每一代模型参数量、数据量都会更大,须要花费更多的算力。
今年9月,多位云厂商根本举动步伐技能人士对我们表示,万卡(1万枚AI芯片)只是大模型的入场券。目前下一代大模型的算力花费正在朝10万卡方向演进,后续算力投入只会更高。能持续投入的厂商会逐步减少,终极只有少数几家头部厂商连续参与长跑。
以英伟达A100/A800系列AI芯片为例,单卡价格超过10万元。万卡集群仅AI芯片采购本钱就超过10亿元,一座万卡智算中央基建本钱超过30亿元。能承受如此高本钱的企业寥寥无几。
巨额算力投入已经表示在科技公司的成本支出中。随着大模型竞争加剧,拥有云打算业务的紧张科技公司(如微软、亚马逊、谷歌等)都在加码AI算力的投入。这使得它们的成本支出在高速增长。
正常情形下,科技公司的成本支出增速常日在20%旁边。但2024年上半年,微软、亚马逊、谷歌的成本支出分别是330亿美元、303亿美元、252亿美元,分别增长了78%、32%、91%。微软2024财年四季度(即2024年二季度)财报电话会表露称,当季190亿美元成本支出险些全部用于算力投入。微软、亚马逊、谷歌管理层均在2024年二季度财报电话会中表示,2024年整年成本支出将坚持高速增长的趋势。
阿里的算力投入也在加速,增速不逊色于国际厂商。
我们统计了阿里集团2019年之后的成本支出情形。2019年一季度-2024年二季度,阿里每个季度的成本支出均匀增速是15%。随着AI算力投入加快,阿里2024年上半年成本支出232.4亿元,同比增长123.2%。个中2024年一季度成本支出111.5亿元,同比增长高达220.4%。阿里近半年的成本支出增速,也达到了2019年以来的顶峰。
阿里高强度的AI算力投入正在取得初步成效。2024年二季度,阿里云营收265.5亿元,同比增长5.9%。阿里管理层在财报后的电话会议中表露,阿里云的公共云收入正在保持两位数增长,AI干系产品收入保持三位数增长。估量阿里云下半年的收入增速还将进一步提升。
在大模型竞赛中,算力资源的多寡很主要,算力效率的高低更主要。大模型在演习阶段、推理阶段都会大量花费算力。前者紧张影响模型厂商的模型生产本钱,后者影响企业客户的使模型用本钱。
周靖人在本次云栖大会上展示了阿里云AI根本举动步伐的全貌。在他看来,云厂商须要通过打算、网络、存储等技能协同升级,提升打算效率。
提升算力效率,首先要提升大模型的演习效率。一个AI算力集群,一样平常由千卡、万卡组成。算力集群越大、芯片数量越多,故障率也会因此提升。大模型的演习是千卡、万卡的同步任务,一张卡涌现故障就会影响全体集群的运作。
一位云厂商根本举动步伐技能人士今年9月对我们表示,AI算力集群的中断韶光和集群规模成正比。他提到一个公式——有效AI算力=单卡算力有效率×并行打算有效率×有效演习韶光。个中每一项都是乘积关系,任何一项的表现有细微偏差,都会对整体算力利用率产生系统性影响。一样平常千卡集群的有效演习时长是99%,但万卡集群的有效演习时长会降落到90%,目前十万卡集群的有效演习时长乃至靠近0%。
他直言,目前部分企业算力利用效率很低。一些企业在演习大模型时,算力有效利用率乃至不敷50%。大量昂贵且罕有的AI算力被摧残浪费蹂躏了。
阿里云CTO(首席技能官)周靖人9月19日在云栖大会宣告,目前阿里云的万卡算力集群可以实现大于99%以上连续演习有效时长,模型算力利用率可提升20%以上,可支持单集群十万卡级别AI算力规模。
提升大模型演习效率之后,还须要持续提升大模型推理效率——这会直接影响企业利用大模型的本钱。
过去两年大模型的发展遵照着Scaling Law(OpenAI在2020年提出的定律,直译为“缩放定律”)——模型性能紧张与打算量、模型参数量和演习数据量三者大小干系。
一位云厂商大模型业务核心卖力人提到,云厂商的核心原则是在Scaling Law的约束下提升数据质量、数量,适当降落模型参数;还可以采取MoE(Mixture of Experts,一种模型设计谋略,通过稠浊多个专业模型,得到更好性能)架构提升模型性能、降落推理本钱。落地到详细的业务策略,有两种方案。
其一,通过增加数据质量/数量、优化算法和架构的办法提升模型性能、降落模型尺寸。这可以有效减少算力花费,提升紧张运用效果,适应主流市场需求。
其二,采纳更精准、细分的模型产品策略。不指望靠少数几款模型办理所有问题,而是让不同模型办理不同问题。比如,让性价比模型切经济市场,让高质量模型切高端市场。
大模型再贬价云打算的算力构造正在剧变。现在花费更多推理算力,意味着会抢占更多增量市场。阿里云在CPU为主的算力阶段曾经保持领先,它须要在GPU为主的算力阶段确保上风。
国际市场调研机构IDC预测,2022年-2027年中国通用算力年复合增速16.6%,智能算力年复合增速33.9%。2022年-2027年,智能算力内部,推理算力占比将上升到72.6%,演习算力占比会下滑到27.4%。
今年5月,中国云厂商开始了大模型推理算力价格战。字节跳动旗下云做事火山引擎、阿里云、百度智能云、腾讯云先后把大模型推理算力价格低落了90%以上。
近期,多位云厂商技能人士对我们表示,5月以前海内大模型推理算力毛利率高于60%,和国际同行基本同等。5月各大厂接连贬价后,推理算力毛利率低落幅度很大。
一位头部云厂商高管今年6月曾向我们表示,他在内部多轮推演和测算了贬价逻辑,个中有两个抵牾点。
贬价后存量收入会低落,增量收入会增长。空想情形是,增量收入能覆盖存量收入。
二是,如果同行贬价更激进,要如何应对?终极结论是,现在的规模比利润更主要,可以为了预期中的长期增长放弃短期收入。
事实上,大模型推理价格低落对付处于发展早期的AI大模型家当是故意义的。
在短期内,推理算力能带来的收入并不多。一位中国云厂商技能人士阐明,2024年各家模型调用收入不会超过10亿元,这在每年数百亿营收的大盘中规模有限。但未来1年-2年大模型调用次数有望有10倍以上的指数级增长。如果调用量足够大,长期收入增长将能填补短期收入丢失。
按照技能发展规律,这个过程中,AI运用会逐渐增长,算力本钱会随着客户需求增长逐渐摊薄。大模型业务终极仍有机会实现正向利润,乃至很可能成为云厂商的新增长点。
今年9月之前,中国云厂商的大模型和AI创业公司OpenAI的同规格模型比较,价格普遍只有20%-50%。
以阿里的通义千问-Max、百度的ERNIE-4.0-8K、腾讯的hunyuan-pro三款旗舰模型为例,三者每百万Tokens的输出价格分别是120元、120元、100元。它们对标的OpenAI旗舰模型GPT-4-turbo每百万Tokens输出价格是210元(OpenAI官网标价是30美元,此处已按美元和公民币汇率1:7换算)。这三款国产大模型的价格仅为GPT-4-turbo的50%旁边。
一年来,阿里通义千问大模型的API(运用程序编程接口,就像水电开关,调用时会花费Token)调用输出价格低落了97%,入门模型百万Tokens(Token是大模型的文本单位,一个Token可以是单词、标点、数字、符号等)调用价格已降至0.5元。
阿里云另一个考量是,大模型还可以提高全行业的云打算渗透率——贬价对家当和自身来说,会一个双赢的策略。阿里云方面表露的信息显示,第一轮贬价后,大量企业用户调用通义大模型,阿里云百联平台的付费客户数比上一个季度增长了超过200%。
目前,阿里云把大模型价格打下去的态度是武断的。9月19日云栖大会上,周靖人再次宣告了通义三款主力模型贬价。阿里云公布的数据显示,通义千问-Max输入价格降落了50%,输出价格了降落50%。通义千问-Plus输入价格降落了85%,输出价格降落了90%。通义千问-Turbo输入价格降落了85%,输出价格了降落90%。
大模型推理价格贬价的底线在哪里?一位数字化企业高管认为,这可能要等到“杀手级”AI运用真正爆发。
周靖人的不雅观点是,目前大模型运用创新还处于早期。如果模型利用价格相对昂贵,会导致AI运用无法大规模落地。阿里云每一次模型贬价的决策都是经由严明研判的,是经由市场反馈后的结果。阿里云会采纳持续技能创新的办法降落算力本钱,把红利让利给企业客户。
阿里云副总裁张启认为,大模型的推理价格低落不应该用“价格战”的竞争思维去理解。模型贬价,这就像电信运营商的提速降费。本日的手机流量资费和20年前比较,完备无法类比。电信运营商的提速降费催生了移动互联网的创新。阿里云在考虑更长远的问题——推动AI运用创新。大模型推理价格低落也会带来AI运用爆发。
AI运用的爆发在硅谷已经可以初见端倪。一位中国云厂商高管今年5月向我们提到,年初他在硅谷创造,美国AI运用创业呈现了2012年-2014年中国移动互联网初期的趋势。“AI运用创业小团队,很快取得营收和融资。中国市场未来可能会呈现这种趋势。但条件是,大模型推理价格足够低,试错门槛要足够低。”
淘汰赛开始,AI生态在抽芽更大的算力支出,更低的模型价格,更高的技能门槛。这意味着大模型的淘汰赛已经开始了——它的另一壁是,AI运用生态也在抽芽。
大模型须要持续投资,要有万卡乃至十万卡的能力,还须要商业回报。在一位中国云厂商计策人士看来,很多企业不具备这样的能力。未来中国市场只会有三五家根本模型厂商。市场会逐渐出清,剩下真正有竞争力的企业。
吴泳铭在云栖大会提到,全天下前辈模型竞争的投入门槛,将达到数十亿、数百亿美元的级别。一位中国云厂商技能人士今年9月对我们表示,中国云厂商须要保持每年百亿元级别的算力成本支出,按照目前的推理算力用量,几家参与价格战的头部云厂商2024年要为大模型推理算力花费补贴超过十亿元。
多位行业人士对我们表达了同一个不雅观点,这轮淘汰赛会持续一两年,只有3家-5家根本模型企业能连续活下去。
一位科技公司计策方案人士的不雅观点是,阿里云在这场淘汰赛中相对从容。一是,阿里云已经实现了盈利(非美国通用司帐准则标准下的盈利,剔除做事器摊销、员工股权勉励等非现金成分)。阿里云紧张来自公共云四大件(打算、存储、网络、数据库),低价模型会促进客户业务数据花费,进而带动上述根本云产品的发卖。
长远来看,大模型发展的空想情形是,终极依赖高性能的模型和合理的价格建立康健持久的商业闭环。一位云厂商大模型业务核心卖力人认为,这个逻辑必须等淘汰赛结束之后才可能成立。至少在未来1年-2年内,很多大模型厂商的紧张目标是,活过这一轮价格战。
只管前辈模型的竞争愈演愈烈,但一个更乐不雅观的判断是,持续不断降落的算力本钱和模型价格,会在潜移默化中让大模型运用生态逐渐爆发。随着模型价格持续降落,AI运用生态会逐渐繁荣。终极剩下的大模型厂商将成为终极的受益者。
周靖人对我们表示,阿里云推动大模型生态繁荣的目标没有变。未来会坚持把技能红利开释给企业用户以及开拓者,推动全体AI行业发展。