你觉得现在用的AI工具价格是真实价格吗?其实你只支付了原始成本的2~10%。剩下的由投资人代你支付。这种结构能维持多久?

3秒概要
AI API价格90~98%是VC补贴OpenAI每赚1美元,电力+硬件成本就要0.37美元补贴断供可能导致价格暴涨10~50倍

这是什么?

AI工程师Will Taubenheim发布了一份24.8万字的调研报告。核心是 — 整个AI行业目前运转在赤字补贴之上

数字更能说明问题。OpenAI 2026年年营收250亿美元,但仅推理成本(inference cost)就高达141亿美元。再加上模型开发费67亿美元、人工成本25亿美元、需要偿还微软的投资130亿美元,结果是?依然亏损

企业向OpenAI API支付1美元,OpenAI仅生成那个回应就要花费电力+硬件成本0.37美元。研究费、人工成本、债务偿还另算。

这不只是OpenAI的问题。Anthropic在法庭提交文件中披露,累计营收50亿美元,推理+训练成本超过100亿美元;Cursor(Anysphere)投入风险资本30亿美元,年营收20亿美元。

Ed Zitron的表述很准确:"所有AI初创企业无一例外,都在把数亿美元变成数千万美元,把数十亿美元变成数亿美元。"

有什么不同?

核心是当前价格 vs 实际成本的差距。ScaleDown的分析显示,基于H200 GPU服务器的实际推理成本约为每百万token 6.37美元,而GPT-4o-mini API价格是0.60美元。补贴率约90%。

项目现在(有补贴)补贴结束后
ChatGPT Plus订阅费月$20月$100~200以上
Claude Code开发者费用月$100~200月$1000+预计
API每百万token$0.40~10$40~200
客服AI(每日100万次)年数百万元年数十亿元
AI编程工具(个人)月$10~39月$100~390+

更可怕的是使用量也在同时爆炸式增长。简单文本回应耗电0.3Wh,但推理(reasoning)模式需要1.9Wh,视频生成需要1kWh,是前者的3333倍。 智能体对一个任务调用AI 10~20次,token消耗呈指数级增长。

杰文斯悖论(Jevons' Paradox):token单价下降,用量爆增,总成本反而上升。Uber最初靠59%补贴占领市场,2018~2021年间将价格提高了92%。

Steve Smith(Ardalis)更直接:"到2027年底,Claude Code、Copilot等智能体型AI订阅费将比2026年1月涨10~100倍"

核心总结:如何开始

  1. 建立AI成本仪表盘
    立即追踪团队各AI工具的月支出。把API调用次数、token用量、订阅费汇总到一个仪表盘,价格上涨时可以立刻了解影响。
  2. 10倍场景压力测试
    AI成本涨到10倍,业务还能运转吗?从AI依赖度高的核心工作流开始检查,提前了解替代方案(本地模型、开源)。
  3. 优先选按月付费,警惕按量计费
    按量计费(per-token、per-action)模式在智能体时代容易造成费用炸弹。尽量选固定订阅,使用按量计费时必须设置月度上限。
  4. 按任务分配模型
    用最顶级的模型做简单自动补全,就像开货车去买菜。简单任务用小模型,只有复杂推理才用高端模型。仅此一项就可能降低50~67倍成本。
  5. 最小化厂商锁定
    只依赖一家AI供应商,价格上涨就只能被动接受。建立抽象层,让OpenAI、Anthropic、开源模型之间可以灵活切换。