在大厂投入数千人和数千亿美元的AI模型市场,一家只有26人的初创公司用2000万美元打造了400B参数的开源大语言模型。然后登上了OpenClaw最受欢迎开源模型第一名。

3秒概要
26人初创Arcee 2000万美元 + 33天训练 400B开源Trinity LLM OpenClaw人气第一 比Claude便宜96%

这是什么?

Arcee AI是一家旧金山的初创公司,目前知名度不高。最初是为SK Telecom等大型企业客户做LLM微调的B2B业务,但CEO Mark McQuade判断不能一直依赖他人的模型。于是从2025年底开始从头自研模型。

成果就是Trinity系列。2025年12月先发布了小型模型(Nano 6B、Mini 26B),2026年1月发布Trinity Large(400B),4月1日又推出了增强推理能力的Trinity-Large-Thinking。 这一切都在短短9个月、总预算2000万美元内完成。

为什么现在受到关注?Anthropic宣布将向Claude Code订阅用户另行收取OpenClaw使用费后,社区开始寻找替代模型。这时Trinity-Large-Thinking在OpenClaw专属基准PinchBench上获得91.9分,仅次于Claude Opus 4.6的93.3分,价格则比Claude便宜96%——每百万输出token仅需$0.90。

26人
Arcee团队总规模
2000万美元
Trinity总开发成本
96%
比Claude Opus更便宜
3.37万亿
Preview发布后2个月处理的token数

有什么不同?

最关键的区别在于许可证。Trinity采用Apache 2.0协议,毫无限制。Meta的Llama因商业条款和使用限制饱受批评,被认为不符合开源标准。中国模型(DeepSeek、Qwen等)技术虽强,但因数据主权问题,许多美欧企业不敢采用。

Trinity瞄准了这个空白。任何人都可以下载模型权重,在本地运行,用自己的数据微调,商业化使用——完全没有限制。Hugging Face联合创始人Clement Delangue说:"美国的优势一直是其初创企业。Arcee证明了这在开源AI领域同样可行。"

Claude / GPT-4o(闭源) Trinity-Large-Thinking Llama 4(Meta)
许可证 API依赖,专有 Apache 2.0(完全开放) Meta条件许可证
本地部署 不可 可(下载权重) 可(有商业限制)
PinchBench 93.3(Opus 4.6) 91.9 未公开
费用(每百万输出token) $25(Opus) $0.90 按云服务定价
激活参数 密集架构 13B激活 / 400B总计(MoE) Maverick MoE

架构设计也很特别。Trinity采用Mixture-of-Experts(MoE)结构,256个专家模型中每次只激活4个。总参数400B,但推理时实际激活的只有13B(1.56%)。因此在相同硬件上比竞争对手快2~3倍。

快速上手指南

有三种方式可以开始使用Trinity。

  1. 在OpenRouter直接体验(最快)
    在openrouter.ai选择arcee-ai/trinity-large-thinking即可。已与OpenClaw、Cline、Kilo Code等主流编程Agent集成。
  2. 使用Arcee API(团队/企业版)
    在chat.arcee.ai注册账号获取API密钥。每百万输出token $0.90,比Claude Opus便宜96%。目前以128k上下文、8位量化方式提供服务。
  3. 直接下载权重(本地部署/研究用)
    在Hugging Face可选三个版本:Preview(轻量微调指令版)、Base(17万亿token训练检查点)、TrueBase(10万亿token纯预训练,无指令数据)。需要自定义对齐的监管行业特别适合TrueBase。
  4. 在OpenClaw中设为默认模型
    在OpenClaw设置中切换到Trinity-Large-Thinking,无需Anthropic订阅,只用OpenRouter额度即可使用。

使用前须知

Trinity-Large-Thinking目前仅支持文本。多模态功能正在开发中,如需图像理解需配合其他模型使用。在Agent任务上表现强劲,但SWE-bench评分为63.2%,低于Claude Opus 4.6的75.6%。