你觉得现在用的AI工具价格是真实价格吗?其实你只支付了原始成本的2~10%。剩下的由投资人代你支付。这种结构能维持多久?
这是什么?
AI工程师Will Taubenheim发布了一份24.8万字的调研报告。核心是 — 整个AI行业目前运转在赤字补贴之上。
数字更能说明问题。OpenAI 2026年年营收250亿美元,但仅推理成本(inference cost)就高达141亿美元。再加上模型开发费67亿美元、人工成本25亿美元、需要偿还微软的投资130亿美元,结果是?依然亏损。
企业向OpenAI API支付1美元,OpenAI仅生成那个回应就要花费电力+硬件成本0.37美元。研究费、人工成本、债务偿还另算。
这不只是OpenAI的问题。Anthropic在法庭提交文件中披露,累计营收50亿美元,推理+训练成本超过100亿美元;Cursor(Anysphere)投入风险资本30亿美元,年营收20亿美元。
Ed Zitron的表述很准确:"所有AI初创企业无一例外,都在把数亿美元变成数千万美元,把数十亿美元变成数亿美元。"
有什么不同?
核心是当前价格 vs 实际成本的差距。ScaleDown的分析显示,基于H200 GPU服务器的实际推理成本约为每百万token 6.37美元,而GPT-4o-mini API价格是0.60美元。补贴率约90%。
| 项目 | 现在(有补贴) | 补贴结束后 |
|---|---|---|
| ChatGPT Plus订阅费 | 月$20 | 月$100~200以上 |
| Claude Code开发者费用 | 月$100~200 | 月$1000+预计 |
| API每百万token | $0.40~10 | $40~200 |
| 客服AI(每日100万次) | 年数百万元 | 年数十亿元 |
| AI编程工具(个人) | 月$10~39 | 月$100~390+ |
更可怕的是使用量也在同时爆炸式增长。简单文本回应耗电0.3Wh,但推理(reasoning)模式需要1.9Wh,视频生成需要1kWh,是前者的3333倍。 智能体对一个任务调用AI 10~20次,token消耗呈指数级增长。
杰文斯悖论(Jevons' Paradox):token单价下降,用量爆增,总成本反而上升。Uber最初靠59%补贴占领市场,2018~2021年间将价格提高了92%。
Steve Smith(Ardalis)更直接:"到2027年底,Claude Code、Copilot等智能体型AI订阅费将比2026年1月涨10~100倍"。
核心总结:如何开始
- 建立AI成本仪表盘
立即追踪团队各AI工具的月支出。把API调用次数、token用量、订阅费汇总到一个仪表盘,价格上涨时可以立刻了解影响。 - 10倍场景压力测试
AI成本涨到10倍,业务还能运转吗?从AI依赖度高的核心工作流开始检查,提前了解替代方案(本地模型、开源)。 - 优先选按月付费,警惕按量计费
按量计费(per-token、per-action)模式在智能体时代容易造成费用炸弹。尽量选固定订阅,使用按量计费时必须设置月度上限。 - 按任务分配模型
用最顶级的模型做简单自动补全,就像开货车去买菜。简单任务用小模型,只有复杂推理才用高端模型。仅此一项就可能降低50~67倍成本。 - 最小化厂商锁定
只依赖一家AI供应商,价格上涨就只能被动接受。建立抽象层,让OpenAI、Anthropic、开源模型之间可以灵活切换。




