大模型价格战背后的逻辑与真相

目前,一些大模型企业采用会员制、计时制等模式收取费用,但最普遍的,还是按使用量计费,类似于手机流量套餐,只不过计费单位从流量的GB变成了Token。但Token与汉字、字母的对应关系目前还没有统一标准,各家也有自己的定义。因此,虽然各家计费标准有所不同,但大致遵循大模型规模越大、定价越贵的规则。

编者按:

字节跳动落下一枚棋子,国内大模型行业“卷起”阵阵波澜。

5月15日,字节跳动推出豆包大模型,同时宣布旗下通用模型豆包pro系列“大降价”,处理1500个汉字的价格仅需0.8厘。一周后,阿里、腾讯、百度、科大讯飞紧跟而上,纷纷加入大模型降价行列;更有甚者,直接宣布主力模型免费使用。原本高高在上的大模型似乎在一夜之间变为每一家企业、每一个开发者皆可轻松使用的廉价商品。

这不由让人联想起国内互联网曾经出现过的“百团大战”“打车大战”,这些前车之鉴,能否让当下这场大模型价格战走出“跑马圈地”“赔本赚吆喝”的逻辑怪圈?

“不值钱”的Tokens

通常情况下,一家大模型企业在训练出自己的闭源大模型后,会将其API(Application Programming Interface,应用程序编程接口)出售给开发者并收取费用。开发者在大模型API的基础上,通过投喂数据、微调等方式进行优化。这成为当前很多大模型企业的变现模式。因此,大模型价格的变动或许不会直接影响到消费者,但会直接影响到开发者制作应用的成本。

目前,一些大模型企业采用会员制、计时制等模式收取费用,但最普遍的,还是按使用量计费,类似于手机流量套餐,只不过计费单位从流量的GB变成了Token。但Token与汉字、字母的对应关系目前还没有统一标准,各家也有自己的定义。因此,虽然各家计费标准有所不同,但大致遵循大模型规模越大、定价越贵的规则。

大模型企业一直在探索API调用量变现的商业模式,并尝试通过各种方式提高大模型的API调用量,但增长却并不明显。在这种情况下,大模型API降价可能会吸引一些开发者从“免费试用”开始尝试AI应用开发,这对于抢占市场、激活市场有一定的积极意义。基于这样的前提和背景,大模型价格战一触即发。

大模型价格战前传

近年来,量化交易在国内金融领域风生水起,这是一种以先进数学模型替代人为主观判断的投资决策方式,其好处是可以减少因投资者情绪波动带来的影响,避免在市场极度狂热或悲观的情况下作出非理性的投资选择。幻方量化是比较知名的私募企业,通过量化交易在国内金融市场获得了丰厚收益。此后,幻方量化持续加大对AI驱动下量化交易的投入,花费大量资金购入英伟达、AMD的GPU。业内一度有“幻方储备的英伟达H100芯片比大厂还多”的传言。

深度求索(DeepSeek)正是由幻方量化于2023年4月创立的一家AI公司。与月之暗面、智谱AI、Minimax、百川智能等获得科技大厂投资的AI初创公司不同,深度求索与科技大厂之间并无直接关联。但这家公司仍然被视为一匹可能改变国内AI市场格局的“黑马”。

2024年5月6日,深度求索宣布,旗下大模型DeepSeek-V2降价至每百万Tokens(处理文本最小单位)输入价格为1元、输出价格为2元,开发者还可获得500万Tokens的免费额度。相比之下,OpenAI的主力大模型GPT-4 Turbo每百万Tokens的输入和输出价格分别为72元和217元。

但深度求索毕竟尚不具备科技大厂的影响力,尽管DeepSeek-V2与GPT-4 Turbo的综合价差接近百倍,却并未引发国内市场太大的反响,直到字节跳动的加入。

大模型价格战全面打响

5月15日,字节跳动发布豆包大模型,宣布主力大模型pro-32k定价为0.8元/百万Tokens,号称比行业便宜99.3%,比DeepSeek-V2的售价还要低上不少。

5月20日,字节跳动旗下的火山引擎也更新了定价详情。根据火山方舟大模型服务平台公布的信息,按大语言模型后付费模式,即以Tokens使用量(输入文本+输出文本)计费,每小时出账,按量后付费。其中,Doubao-lite-32k模型的免费额度是50万Tokens,推理服务输入价格为0.0003元/千Tokens,输出价格为0.0006元/千Tokens。

5月21日,阿里和百度同时入场。阿里云宣布通义千问9款大模型齐降价。其中,Qwen-Long是通义千问的长文本增强版模型,上下文长度最高达1000万。除了输入价格降至0.0005元/千Tokens,Qwen-Long输出价格直降90%至0.002元/千Tokens。

百度智能云则宣布文心大模型的两款主力模型ENIRE Speed、ENIRE Lite全面免费,即刻生效。ENIRE Speed是百度2024年最新发布的自研大语言模型,通用能力优异,适合作为基座模型进行精调,更好地处理特定场景问题,同时具备较强的推理性能。ENIRE Lite是百度自研的轻量级大语言模型,适合低算力AI加速卡推理使用。这两款大模型均支持客户向大模型进行8k~128k内容量的提问+回答。百度智能云在相关公告中,将这两款大模型的输入和输出价格用红色标注为“免费”。

5月22日,科大讯飞跟进降价,宣布讯飞星火API能力正式免费开放,讯飞星火Lite API永久免费开放,顶配版(Spark3.5 Max)API价格为0.21元/万Tokens。

腾讯云也在同日宣布,其主力模型之一混元-lite模型的价格从0.008元/千Tokens调整为全面免费,同时,API输入输出总长度计划从目前的4k升级到256k;混元-standard API输入价格从0.01元/千Tokens降至0.0045元/千Tokens,降幅达55%,API输出价格从0.01元/千Tokens降至0.005元/千Tokens,降幅达50%。

6月5日,智谱AI更新了自家大模型的价格体系。其中,GLM-4-Flash版本降至0.1元/百万Tokens;GLM-4-Air版本价格降为1元/百万Tokens;GLM-4-Air极速版价格为10元/百万Tokens,在效果不变的情况下生成速度达到71Tokens/秒,这意味着该模型每秒可展示100多个汉字。

以“超低价”“免费”为卖点的大模型价格战全面打响,并就此形成了短期无法“回退”的多米诺骨牌。

便宜的东西往往更贵

“1元钱可以购买到通义大模型200万Tokens,相当于5本《新华字典》的文字量。”“1元钱可以购买到豆包大模型125万Tokens,相当于三本《三国演义》”“写两遍《红楼梦》只需1毛钱”……

科技大厂在宣传自家大模型价格优势时采用的举例方式如出一辙。Token本是自然语言模型处理文本的最小单位,通过最大化放大Token的数量,与对应需要付出的极小价格形成巨大的倍数差异,让受众感受更具震撼力的心理冲击,这样的宣传方式在国内互联网发展史上屡见不鲜。

对大模型有所了解的人就会知道,在企业使用大模型的过程中,Token并不是大模型的全部。目前,大模型价格战仅限于推理用的Token降价层面,而之后的训练和部署成本依然不低。例如,阿里的Qwen-Turbo大模型,进行百万个Tokens推理只需要2元,若继续进行训练,则需要花费30元,具体部署时,每月需要2万元。

因此,虽然大模型进入了所谓“免费时代”,但很大程度上只是一个用于宣传的噱头。因为这种免费通常带有诸多限制,譬如阿里、百度降价幅度最高的产品都是其偏轻量化的模型版本,仅适用于使用频次不高、推理量不太大、任务处理量不太复杂的中小企业、开发者短期使用。绝大部分上游算力提供商为了后续创收,都留有隐蔽的收费手段,下游企业想要真正用上成套的大模型服务,依然需要付出高昂的使用成本。

对此,文渊智库创始人王超表示:“长文本只是大模型竞争的维度之一,用字典、名著的文本量来比拼是营销手段,卷Token的性价比实际上是无效的,真正应该卷的,是大模型在多模态、识别、理解等层面的能力。”

“值钱”的开发者和应用场景

AI大模型是众所周知的烧钱行业,在全球AI竞争激烈的当下,算力、研发、运维等成本几乎都用美元计算,对于国内大模型企业来说,在尚未实现盈利的情况下,为何迫不及待打起了价格战?

抢夺开发者

一名国内互联网大厂大模型开发人员对本报记者表示:“大模型企业选择在此时降价,是希望用低价鼓励开发者在更多场景探索落地。现阶段对大模型企业而言,通过定价赚钱不是最主要的因素,最重要的是要先将应用场景铺开,拥有更多流量。大模型开发完成后的边际成本较低,只要开发者的规模能增长,价格低一点,影响并不大。”

猎豹移动董事长兼CEO傅盛也有类似的看法,他表示:“大模型降价目的不是为了吸引更多用户直接去使用,而是为了吸引开发者,现在用户端各大模型的App基本采用免费的模式,但用户量的增长遇到瓶颈,大模型企业都认识到,仅提供聊天窗口不可能让用户越用越多,必须让开发者参与进来。”

从现阶段来看,大模型降价的举措在大模型企业和开发者之间呈现出双赢态势。对于开发者而言,可以将其开发产品的一部分剥离,作为Demo(演示版),在获得大模型企业赠送的Token之后,即可进行几轮0成本的推理测试和产品调优。最终缩短产品的开发周期,并提高成功率——当然,前提是接入对应企业的大模型及其生态。

对于大模型企业而言,只有吸引越多的开发者,才能缔造更繁荣的应用生态、催生更多的应用创新。而丰富的大模型应用生态,是撬动“飞轮效应”的前置条件。应用生态越完善,使用场景越多,用户规模越大,生成的新数据会反哺大模型性能提升。只有更大的使用量,才能打磨出更好的模型。

在公共云资源和算力资源的规模化效应下,为开发者提供Token的实际成本,远低于外界想象。而这些大模型企业所收获的,远比付出的成本更多。其一,开发者在反复调用模型能力后,间接为大模型企业的底层模型提供了可供参考的调优思路和产品思路,换言之,大模型企业提供了燃料,开发者贡献了宝贵的想法。其二,一旦开发者开发的产品上线并实现了规模化,很大程度上意味着与初期使用的底层大模型生态捆绑,其后的产品形态,也将与底层模型深度耦合。这预示着开发者后期将在该大模型平台上持续支付运营成本,一旦想要转换平台,还将面临更高的转换成本。

将目光放长远,大模型企业显然是收益更多的一方。

激活更多应用场景

亿欧智库发布的《2024中国“百模大战”竞争格局分析报告》指出,通用大模型已度过创业爆发期,预计市场将于2025至2026年逐渐出清,优势企业坚守战场,剩余企业陆续退出竞争;2027至2028年,通用大模型市场将呈现寡头竞争格局。垂直类赛道将成为大模型产业激烈竞争的领域,预计在2023至2024年,部分行业场景率先落地;2029年以后初步形成市场出清,各细分行业呈现碎片化竞争格局,应用层获取的市场价值日趋增长。

当前,国内中小企业更多通过API调用大模型的算力。头部大模型企业宣布大模型降价,类似于网络运营商宣布降低流量费用,有利于下游企业对大模型应用的深入开发,避免了中小企业在大模型底层硬件、软件层面的重复建设,推动整个行业向下游应用端发力。

阿里云智能集团公共云事业部总裁刘伟光表示:“AI推理的成本只有达到每年90%以上的下降,才能推动各行各业AI应用的爆发,阿里云大幅降低大模型的推理价格,就是希望加速AI应用的爆发。未来大模型API的调用量预计会有成千上万倍增长。”

但除了在意价格,企业客户更关心的还是大模型能够给业务带来哪些实质性的价值,以及AI技术所展现的生产力,是否能够助力企业在运营过程中削减成本、提升效率及增进实际业务效益。这同时也是大模型在商业化应用过程中必须要面对和解答的关键问题。就目前来看,不论是国内市场还是国际市场,关于大模型如何落地并产生具体价值的案例,仍然有待进一步补充和完善。

对此,蚂蚁集团副总裁、金融大模型负责人王晓航表示:“大模型要融入千行百业,让产业从AI化中收获价值,才能成为广泛的刚需。未来一年,一定会出现现象级的生成式AI应用。每个行业都在等待自己的AI超级应用,谁在产业中更有数字化基础,谁将行业和技术结合得更紧密,谁就更有希望打造出这样的超级应用。”

作为大模型行业内的初创企业,制作API集合工具包的蓝雨AI联合创始人北山表示:“此番的大模型价格战或许只是一次比较小的波澜,对于客户端客户来说感受并不强烈。但在资本要素等多种因素的影响下,大模型价格战可能会一直持续到出现一个垄断式的爆款应用为止。”

“无价”的技术

发生在2024年5月的这场大模型价格战,持续引发全网的激烈讨论,面对大模型Token近乎白菜价的甩卖,各方人士对于其直接作用和后续影响发表了不同看法。

有人说,价格战实际是大模型产品同质化加剧的恶果,降价成为了争夺市场份额的最直接的获客策略。也有人认为,大厂打响价格战并非盲目以亏损换流量,而是有技术进步作为控制成本的底气,以此鼓励开发者在更多场景探索落地,先将应用场景铺开再谈其他。

火山引擎总裁谭待表示:“用亏损换收入是不可持续的,所以豆包大模型从来不走这条路。至于为什么可以这样降价,因为我们有很多手段将成本控制得很好。有了大的使用量,才能打磨出好模型,也能大幅降低模型推理的单位成本。”

Lepton AI创始人、阿里巴巴原副总裁贾扬清则表示:“企业在使用AI时,并不是成本驱动。不是因为API贵才没人用,而是因为企业首先需要搞清楚如何用来产生业务价值。也许不是最便宜的赢得商战,而是能落地的赢得利润。”

傅盛直言:“大模型大降价基本宣告了大模型创业公司必须寻找新的商业模式。短期来看,大模型的性能遇到了瓶颈,谁也甩不开谁,谁也拿不出杀手锏,降低推理成本,降低售价成为当下每一家大模型企业的高优先级任务。”

毫无疑问,这场大模型价格战给大模型创业公司造成了重大影响,甚至可以说到了“危急存亡之秋”的程度。当巨头们步履匆匆地进入战局,大模型“五小龙”之中,除了智谱AI宣布降价以外,其余几家均未对价格进行调整。这几家创业公司的掌舵人似乎都倾向于,不盲目卷入价格战,而是要坚持在自身的模型性能上发力。

零一万物CEO李开复近期在一次访谈中表示:“大模型降价的现象值得关注,零一万物也在花费很大精力,希望能够让价格更低,整个行业每年降低90%的推理成本可以期待。但在大模型领域,绝不会做疯狂降价模式的打法,因为技术是最重要的,如果技术不行,纯粹靠贴钱赔钱去做生意注定不会成功,零一万物不会给出类似的定价来做对标,我们对自己的大模型表现非常有信心。”

据悉,零一万物的最新千亿参数模型Yi-Large以总榜第7名的成绩,进入了世界权威的LMSYS盲测竞技场排行榜。李开复透露,零一万物选择的是一条“高精尖”路线,服务的是要求最高的、需求最高的、需要最好模型的客户。“100万个Tokens花十几块还是花几块钱有很大差别吗?”

百川智能CEO王小川对于价格战的看法也有其自身的理解。他判断,这一轮大厂降价的实质是云厂商进到新战场,降价不仅是这些大厂射程范围内的事,也是仅限于云厂商的动作。如果是针对企业端服务,这场战争最后也会变成售卖整套云服务而不是模型本身。王小川表示自己并未因眼前正在发生的“争端”而产生任何焦虑,但他建议创业公司不要盲目参与其中,因为大模型创业并不适合网约车和百团大战时期“烧钱补贴”的策略,低价不应该成为大模型的唯一竞争力。

当然,模型推理价格降低本身也是技术发展带来的必然结果,有一系列工程、架构、系统手段可以持续优化。但长期来看,API模式最终考验的还是大模型的综合能力,如果技术上无法拉开差距,价格也一定无法拉开差距,最终,模型调用的价值就会被稀释,虽然依旧是重要的基础设施,但其价值一定会越来越小。

因此,对于巨头而言,模型技术和实际场景,两手都要抓,才能确保规模化的收入,但归根结底,只有在大模型能力上和竞争对手拉开距离,才是API模式可以产生价值的唯一路径。而摆在大模型创业公司面前的,有两条路可以走——做出比大公司更好的模型技术;从模型走向产品,直接创造价值。

复旦大学教授、上海市数据科学重点实验室主任肖仰华点出了大模型价格战的本质:“价格战,本质是大模型产品特性趋同的一种体现。这也提醒着国内大模型厂商,需尽快形成差异化,是否能够在价格竞争、战略竞争之外,获得核心技术上的突破。从长远来看,在大模型技术上创造领先竞争优势仍然是根本,企业仍然要深入思考如何构筑技术竞争的护城河。只有构成技术上的竞争优势,才能够最终胜出。国家数据要素市场正在蓬勃发展,希望更多的大模型企业关注数据工程,数据科学。尽快借助国家发展数据要素的重大契机在数据方面形成竞争优势。”

编后语:

数据显示,2023年我国人工智能核心产业规模达5787亿元,10亿参数规模以上的大模型已超过100个。根据预测,2026年我国AI大模型市场规模将达到211亿美元。可以说,大模型企业数量不断增加、市场规模不断扩大,企业对用户的争夺自然日渐激烈。作为市场竞争的集中体现,价格竞争便成了最便捷高效的办法。

大模型价格“走下神坛”,除了惠及开发者和企业客户,更多消费端的用户也有望免费使用到大模型的基础应用,这对于以数据为关键生产要素的大模型企业来说有特殊意义。庞大的访问量、大量的数据输入和适应反馈有助于企业进一步提升模型服务能力,从而形成良性循环。

然而,需要正视的一个事实是,低价能够成为一种优势,但并不一定能成为竞争力。一味以“烧钱出奇迹”的互联网思维无限降价,长久来看只会损害大模型行业的发展,巨头之间的价格战也将对大模型初创企业造成竞争压力,从而形成新的垄断。在价格之外,强大的技术能力和出色的使用体验依然是决定大模型产品能否成功的重要因素,拼技术、拼差异性、拼商业化落地才是行业应该深耕的道路。

价格为锚、应用为先。价格战或许能帮助中国大模型完成局部赶超意义上的“弯道超车”。但局部之外的部分,只能靠技术创新去补齐。在这点上,没有捷径。

请扫码关注数字化经济观察网
责编:夏丽
参与评论
文明上网,理性发言!请遵守新闻评论服务协议
0/200