Connect with us

GPLP

DeepSeek等开源模型,更“浪费”token吗

行业事件

DeepSeek等开源模型,更“浪费”token吗

来源:未尽研究

很多业内人士已经注意到,似乎DeepSeek-R1等开源模型,在回答问题时往往缺乏“节制”。尤其是简单问题,它想得过于复杂了。它的单位token成本的API价格优势,最终将可能被不受制约的“冗长思考”所侵蚀。

NousResearch团队一项研究,就是想搞清楚,开源权重模型在完成相同任务时,是否系统性地需要比闭源模型更多的token?当将token消耗数量纳入考量后,这种差异如何影响总体推理成本?这种效率差异在不同的任务类型中是否更加显著?

该研究发现,对于不需要复杂推理就可直答的知识题(Knowledge questions),开源模型的“浪费”最为明显,DeepSeek-R1-0528完成任务消耗的token数量(completion tokens)——它既包括向用户呈现的输出结果,也包括思维链(CoT),并与实际计费的token数量相匹配——要比基准水平高出4倍。不过,到了需要推理数学题(Math problems)以及更复杂的逻辑谜题(Logic puzzles),DeepSeek-R1-0528消耗的token数量,高出基准水平缩小至2倍左右。看来实际工作中,向合适的模型询问合适的问题是一大学问。

图片

事实上,AI招聘独角兽公司Mercor的另一项独立研究也注意到了这一现象。在它提出的衡量大模型的AI生产力指数的APEX-v1.0基准上,Qwen-3-235B和DeepSeek-R1的输出长度都超过了其他前沿模型。它们思考得更久,可以弥补一些不足,提升了平均成绩,代价就是更多的token消耗。

但这也是“慢思考”刚推出时的魅力,不是吗?在预训练扩展边际放缓后,测试时扩展越来越重要,是提升解题能力的关键。回到NousResearch团队的研究上,DeepSeek-R1在各类逻辑谜题的准确率,也明显胜出一筹。也许它慢了一些,用的token也多了一些,但答对了题!

图片

所以,开源模型相比前沿闭源模型,究竟经济不经济?

如果有一个最简易的统计公式,那么token经济可以归纳为:AI完成一项任务的收益=token兑现的价值-单位token成本×消耗token数量。

Token兑现的价值,一方面取决于模型能不能最终解决现实问题,另一方面则取决于它所解决的问题有多值钱。它下围棋战胜世界冠军,值多少钱?获得奥数金牌,又值多少钱?但更重要的是,在实际工作场景中创造出经济价值,而这些价值由市场来决定。

单位token成本也决定着模型的经济性。黄仁勋一直鼓吹“买得越多,省得越多”,就是从硬件与基础设施层面优化能效,降低运营成本的逻辑。这是美国的强项。目前,美国几乎所有AI云巨头与前沿大模型厂商,都在探索与部署AI定制芯片以降低推理成本。英伟达计划自研HBM基础裸片(Base Die),OpenAI则找上了SK海力士与三星合作;闪迪甚至预见了数年后高带宽闪存HBF的颠覆性。

中国开源社区的贡献,主要在于算法和架构的改进,对MOE推理与注意力机制的探索层出不穷。阿里巴巴的Qwen3-Next架构,总参数80B,却只需激活3B,即可媲美旗舰版Qwen3-235B性能,效率大幅提升。DeepSeek最新发布的V3.2-Exp引入了DSA机制,能在成本更低的同时几乎不影响模型的输出效果。这些都体现为每百万token的输入和输出成本在持续下降。

微软近期一篇为自己的碳足迹“洗白”的论文中,驳斥过往的纸面研究,往往忽略了实际部署环境中的规模效应与软硬件优化措施。论文提到,就每次AI查询而言,实际能耗要比预估低8-20倍。其中,硬件改进带来1.5至2倍降幅,模型改进带来3至4倍降幅,工作负载优化带来2至3倍降幅。

这里的工作负载优化,既包括KV缓存管理与批大小管理等提升单位token生成效率的手段,也包括用户手动设置token预算上限,或自动触发智能路由调用合适模型等降低token消耗数量的技术。OpenAI坚持让实时路由系统,根据对话类型、复杂度、所需工具和明确意图快速决定调用哪个模型。字节跳动的Knapsack RL也是类似的预算分配策略探索。这些都是出于性价比的考虑。

很长一段时间以来,在讨论token经济学时,完成任务的token消耗数量,往往被人们所忽视。这一指标缺乏前述各类测评token价值的基准,也不在大模型API定价中直接标识出来。

但它无疑越来越重要,它决定着AI的经济性。实际工作不同于刷榜(有的刷榜也有算力成本上限),往往存在明显的成本约束。前述微软论文也担心,随着多模型与智能体的广泛落地,更多的推理次数和更长的推理时间将带来更高的能耗。不仅如此,要输出更多token,通常也意味着更长的响应时间,用户体验下降;对于部分必须高速精准响应的场景,这甚至是生死问题;单次任务越来越多的token消耗,也可能耗尽模型的上下文窗口,限制它处理复杂长任务的能力。

受限于各自的技术储备、供应链体系与电力供给条件,中国与美国在token经济学上已经各自分岔。中国开源模型的首要目标是在国产替代的现实中逼近前沿水平,用较多的token换取较高的价值;美国闭源模型则要开始想法设法去降低token的消耗,并提升token的价值。

从DeepSeek的R1到R1-0528,或者,从Qwen3-235B-A22B-thinking到Qwen-235B-A22B-thinking-2507,中国领先的开源模型的迭代,往往伴随着总token消耗的上升。而Anthropic、OpenAI与xAI的模型迭代,则伴随着总token消耗的降低。

图片

到目前为止,NousResearch团队的研究认为,综合token消耗数量与单位token成本(基于海外第三方的API价格,因工作负载不同,定价区间差别较大),DeepSeek等开源模型仍具备整体成本优势,但在最高API定价时(即以更大的上下文或更高的吞吐速度交付结果等),它的整体成本优势已经不再显著,尤其是在回答简单问题时。

图片

结合中国的AI算力生态,token消耗过多的短板会进一步放大。有一项研究,专门就基础设施的框架,量化了前沿模型的硬件配置与环境乘数,对能耗、水与碳足迹的影响。在其设定场景下,DeepSeek-R1成为了碳排放量最高的前沿模型,且远高于其他模型。除了与o3类似,它大量依赖CoT深度思考,还因为该研究为它“分配”了H800等更低能效的芯片,以及更高PUE的数据中心。

当下对性能的追求压倒了一切。最终,起作用的将是AI的经济性,用尽可能少的token解决尽可能有价值的问题。

参考:

https://doi.org/10.48550/arXiv.2505.09598

https://doi.org/10.48550/arXiv.2509.20241

https://arxiv.org/html/2509.25721v2

https://github.com/cpldcpu/LRMTokenEconomy/

更多关于 行业事件的文章

  • 行业事件

    94亿资金、两条技术路线、五座城市:读懂脑机接口的资本格局

    By

    作者:Judy 来源:IT桔子 2026年刚过完前四个月,脑机接口赛道的融资总额就已经超过了2025年全年——这不是预测,而是已经发生的现实。 根据IT桔子数据,2013年至2026年5月间,...

  • 行业事件

    即时零售冲击下,百万烟酒店进退两难

    By

    来源:酒业家 作者:酒业家团队 进入2026年,即时零售的浪潮已席卷整个酒水行业。 茅台酱香酒在6个月内推动近3000家门店上线美团闪购;29°五粮液·一见倾心去年底便已上线即时零售平台;京东...

  • 行业事件

    大模型前沿竞争惨烈,马斯克的xAI都无法存活

    By

    作者:未尽研究 来源:未尽研究 马斯克宣布,解散xAI。 颇具讽刺意味的是,就在同一天马斯克诉奥特曼的法庭上,作证的OpenAI总裁布洛克曼,当庭说出马斯克“懂火箭、懂电动车、以前和现在都不懂...

  • 快报道

    折扣正从“小众”转向“主流”

    By

    2026年,国内折扣零售市场彻底进入了“刺刀见红”的混战期。各大巨头与新玩家扎堆入场,从社区硬折扣到品牌奥莱,从线下门店到线上平台,折扣的战火燃遍了全国。 先是4月下旬,盒马宣布旗下硬折扣品牌...

  • 行业事件

    ASML进军混合键合?

    By

    来源:半导体行业观察 日前,据韩媒引述一次行业会议上公布的专利分析报道,ASML 可能正在开发晶圆对晶圆 (W2W) 混合键合设备。 报道指出,仁荷大学制造创新研究生院教授朱承焕 (Joo S...

To Top