token烧得越多就越高产吗?在硅谷,AI token消耗量正在变成开发者能力的风向标。Meta员工在叫"Claudenomics"的内部排行榜上比拼token用量,Jensen Huang说"如果50万美元的工程师不消耗25万美元的token,我会非常担心"。 但数据告诉我们,这场竞赛的终点没有生产力。

3秒速览
AI代码爆增 代码流失率861%↑ 审查时间442%↑ 10倍成本换2倍产出 该衡量质量而非数量

这是什么?

Tokenmaxxing是把AI编程工具的token消耗量最大化本身当作生产力指标的趋势。 逻辑是"token烧得越多,自动化程度越高",这已经在硅谷蔓延成了一种文化。OpenAI的一个工程师一周处理了2100亿个token——能填满33次维基百科。Anthropic有用户Claude Code月账单烧了15万美元。

问题在于token消耗量是输入(input),不是产出(output)。 量脉搏和知道健不健康是两回事。token烧得多不等于软件做得好。

861%
代码流失率增长 — Faros AI
9.4x
AI用户代码流失率 — GitClear
10x:2x
成本产出比 — Jellyfish

Waydev的数据显示,AI生成代码的初始接受率看起来有80~90%,但几周后经过重写,实际留存率只有10~30%

到底改变了什么?

Faros AI分析了22,000名开发者、4,000个团队两年的遥测数据,发布了"Acceleration Whiplash"报告。 表面指标确实漂亮——史诗完成率提升66%,任务吞吐量提升33.7%。但背后的代价才是问题。

表面指标(上升)隐藏成本(深埋)
代码产出PR合并率16.2%↑代码流失率861%↑
开发速度史诗完成66%↑生产事故57.9%↑
个人生产力感觉快了20%高级审查时间442%↑
Token成本前20%季度$1,822每PR成本$0.28→$89.32
代码质量84% AI采用率bug增54%,安全漏洞增2.74倍

Jellyfish分析了12,000名开发者,结论一样。前10%的token用户每个PR烧约6900万token,是中位数700万的近10倍。 但PR产出只从每周0.77个涨到2.15个,大约翻倍。花10倍成本只换来2倍产出

高级工程师税(Senior Engineer Tax)

AI生成的代码表面看完美无缺,但结构性和逻辑性缺陷藏在表面之下。Faros AI发现代码审查中位时间增加了442%,而未经任何审查就进入生产的PR增加了31.3%。

"Throughput measures what was shipped, not what survived. The 861% is the asterisk on every output number in this report."

— Faros AI, Acceleration Whiplash Report 2026

如何跳出Tokenmaxxing陷阱

  1. 用"存活代码"替代token消耗量作为指标
    追踪30天后仍未被删除的代码(Durable Code),而不是PR数量或token消耗。
  2. 区分追踪AI代码和人工代码
    分不清哪些提交是AI生成的,就无法衡量AI的真实ROI。
  3. "广泛适度采用"胜过"狭窄极端使用"
    Jellyfish数据显示,让整个组织在中等水平一致使用,远比把token集中在少数重度用户上更高效。
  4. 减轻高级工程师的审查负担
    用AI代码审查工具做第一轮过滤,并设置PR大小限制。
  5. 务必查看30天后的质量指标
    AI生成代码的问题会在30~90天后才爆发。