Big Techが何千人もの人員と数兆円を投じるAIモデル市場で、26人のスタートアップが2000万ドルで400Bパラメータのオープンソース大規模言語モデルを作り上げました。そしてOpenClawで最も人気のあるオープンモデル第1位を獲得しています。
これは何なの?
Arcee AIはサンフランシスコのスタートアップで、まだあまり知られていません。もともとSK TelecomのようなエンタープライズクライアントのLLMファインチューニングを請け負うB2B事業でしたが、CEOのMark McQuadeが「他社のモデルに頼り続けるのは限界だ」と判断。2025年末から自社モデルをゼロから開発し始めました。
その成果がTrinityシリーズです。2025年12月に小さなモデル(Nano 6B、Mini 26B)を先行リリースし、2026年1月にTrinity Large(400B)を、4月1日には推論能力を強化したTrinity-Large-Thinkingを公開しました。 これらすべてが、わずか9ヶ月・総予算2000万ドルで実現したんです。
なぜ今話題なのか。AnthropicがClaude Codeの購読者に対してOpenClawの利用を別途有料にすると発表し、コミュニティが代替モデルを探し始めたタイミングで、Trinity-Large-ThinkingがOpenClawのエージェントタスク用ベンチマーク「PinchBench」で91.9点を記録。Claude Opus 4.6の93.3点に次ぐスコアです。価格はClaude比96%安の100万出力トークンあたり$0.90。
何が違うの?
最大の違いはライセンスです。TrinityはApache 2.0ライセンスで配布されています。MetaのLlamaは商用条件と使用制限があり、オープンソース基準を満たさないという批判を受けています。中国製モデル(DeepSeek、Qwenなど)は技術的には優秀ですが、データ主権の問題から多くの米国・欧州企業が導入を避けています。
Trinityはその隙間を突きました。誰でもモデルの重みをダウンロードして、オンプレミスで動かし、自社データでファインチューニングし、商用利用できます。制限なし。Hugging Face共同創業者のClement Delangueは「米国の強みは常にスタートアップだった。ArceeはオープンソースAIでそれが可能だと示してくれた」と語っています。
| Claude / GPT-4o(クローズド) | Trinity-Large-Thinking | Llama 4(Meta) | |
|---|---|---|---|
| ライセンス | API依存、非公開 | Apache 2.0(完全自由) | Meta条件付きライセンス |
| オンプレミス | 不可 | 可能(重みをダウンロード) | 可能(商用制限あり) |
| PinchBench | 93.3(Opus 4.6) | 91.9 | 未公開 |
| コスト(100万出力トークン) | $25(Opus基準) | $0.90 | クラウドによる |
| アクティブパラメータ | 密な構造 | 13B active / 400B 総計(MoE) | Maverick MoE |
アーキテクチャもユニークです。TrinityはMixture-of-Experts(MoE)構造を採用し、256の専門家モデルのうち一度に4つだけが活性化されます。総パラメータは400Bですが、推論時に実際に動くのは13B(1.56%)だけ。その結果、同じハードウェアで競合モデルの2〜3倍の推論速度を実現しています。
さっそく始めるには
Trinityを試す方法は3つあります。
- OpenRouterでそのまま試す(最速)
openrouter.aiでarcee-ai/trinity-large-thinkingを選択するだけ。OpenClaw、Cline、Kilo Codeなどの主要コーディングエージェントとすでに統合済みです。 - Arcee APIを使う(チーム・企業向け)
chat.arcee.aiでアカウントを作成してAPIキーを取得。出力トークン100万個あたり$0.90で、Claude Opusより96%安価。現在128kコンテキスト、8bit量子化で提供中。 - 重みを直接ダウンロード(オンプレミス・研究用)
Hugging Faceで3つのバージョンを選択できます。Preview(軽くファインチューニング済み)、Base(17兆トークン学習後のチェックポイント)、TrueBase(10兆トークン、純粋な事前学習のみ)。規制産業でカスタムアライメントが必要な場合はTrueBaseが特に有用です。 - OpenClawのデフォルトモデルに設定
OpenClawの設定でTrinity-Large-Thinkingに切り替えるだけ。Anthropic購読なし、OpenRouterクレジットのみで利用可能。
使い始める前に知っておきたいこと
Trinity-Large-Thinkingは現在テキスト専用です。マルチモーダルは開発中なので、画像理解が必要な場合は別のモデルと組み合わせる必要があります。エージェントタスクには強いですが、SWE-bench Verified基準ではClaude Opus 4.6(75.6%)に対して63.2%です。




