Big Tech 수천 명이 수조 원을 쏟아붓는 AI 모델 시장에서, 직원 26명짜리 스타트업이 $2천만으로 400B 파라미터 오픈소스 LLM을 만들었어요. 그리고 OpenClaw에서 가장 인기 있는 오픈 모델 1위를 찍었습니다.
이게 뭔데?
Arcee AI는 샌프란시스코에 있는 아직 많이 알려지지 않은 AI 스타트업이에요. 원래는 SK Telecom 같은 대기업 고객의 LLM 파인튜닝을 대신 해주는 B2B 사업이었는데, CEO Mark McQuade가 "계속 남의 모델에 의존하면 안 되겠다"는 결론을 내렸어요. 그리고 2025년 말부터 아예 자기네 모델을 처음부터 만들기 시작했습니다.
그 결과물이 Trinity 시리즈예요. 2025년 12월에 작은 모델(Nano 6B, Mini 26B)을 먼저 내놓고, 2026년 1월에 Trinity Large(400B)를, 4월 1일에는 추론 능력을 강화한 Trinity-Large-Thinking까지 출시했어요. 이 모든 게 단 9개월, 총 $2천만 예산으로 이루어진 일이에요.
왜 지금 화제냐면, Anthropic이 Claude Code 구독자들에게 OpenClaw 사용을 별도 유료로 전환한다고 발표하면서 OpenClaw 커뮤니티가 대안 모델을 찾기 시작했거든요. 이 타이밍에 Trinity-Large-Thinking이 OpenClaw용 벤치마크인 PinchBench에서 Claude Opus 4.6(93.3점) 바로 다음인 91.9점을 기록했어요. 가격은 Claude 대비 96% 저렴한 토큰당 $0.90/백만 출력 기준.
뭐가 달라지는 건데?
가장 중요한 차이는 라이선스예요. Trinity는 Apache 2.0 라이선스로 배포돼요. 이게 왜 중요하냐면, Meta의 Llama는 상업적 조건과 사용 제한이 붙어 있어서 오픈소스 표준을 위반한다는 비판을 받아왔거든요. 중국 모델들(DeepSeek, Qwen 등)은 성능은 뛰어나지만 데이터 주권 문제로 많은 미국·유럽 기업들이 도입을 꺼려요.
Trinity는 이 틈새를 파고들었어요. 누구든 모델 가중치를 다운받아서 온프레미스에서 돌리고, 자기 데이터로 파인튜닝하고, 상업적으로 활용할 수 있어요. 제약이 없어요. Hugging Face 공동창업자 Clement Delangue가 "미국의 강점은 항상 스타트업이었다. Arcee가 오픈소스 AI에서 그게 가능하다는 걸 보여줬다"고 말할 정도예요.
| Claude / GPT-4o (클로즈드) | Trinity-Large-Thinking | Llama 4 (Meta) | |
|---|---|---|---|
| 라이선스 | API 종속, 비공개 | Apache 2.0 (완전 자유) | Meta 조건부 라이선스 |
| 온프레미스 | 불가 | 가능 (가중치 다운로드) | 가능 (상업 제한 있음) |
| PinchBench | 93.3 (Opus 4.6) | 91.9 | 미공개 |
| 비용 (출력 1M 토큰) | $25 (Opus 기준) | $0.90 | 클라우드마다 다름 |
| 파라미터 활성화 | 밀집 구조 | 13B 활성 / 400B 총 (MoE) | Maverick MoE |
아키텍처도 독특해요. Trinity는 Mixture-of-Experts(MoE) 구조를 사용하는데, 256개 전문가 모델 중 한 번에 4개만 활성화돼요. 총 파라미터는 400B지만 실제로 추론할 때 활성화되는 파라미터는 13B(1.56%)뿐이에요. 덕분에 같은 하드웨어에서 경쟁 모델보다 2~3배 빠른 추론 속도를 냅니다.
핵심만 정리: 시작하는 법
Trinity를 써보고 싶다면 3가지 경로가 있어요.
- OpenRouter로 바로 써보기 (가장 빠름)
openrouter.ai에서arcee-ai/trinity-large-thinking을 선택하면 돼요. OpenClaw, Cline, Kilo Code 등 기존 코딩 에이전트 하네스와 통합도 이미 되어 있어요. - Arcee API 사용 (팀/기업용)
chat.arcee.ai에서 계정을 만들고 API 키를 발급받으면 돼요. 출력 토큰 기준 $0.90/백만으로 Claude Opus 대비 96% 저렴해요. 128k 컨텍스트 기준 서빙 중이에요. - 가중치 직접 다운로드 (온프레미스/연구용)
Hugging Face에서 세 버전을 고를 수 있어요. Preview(인스트럭트), Base(17조 토큰 체크포인트), TrueBase(10조 토큰 순수 프리트레이닝). 규제 산업에서 자체 얼라인먼트가 필요하면 TrueBase가 유용해요. - OpenClaw 기본 모델로 설정
OpenClaw 설정에서 Trinity-Large-Thinking으로 바꾸면 돼요. Anthropic 구독 없이 OpenRouter 크레딧만으로 사용 가능해요.
Trinity 사용 전 알아두면 좋은 것
Trinity-Large-Thinking은 현재 텍스트 전용이에요. 멀티모달은 개발 중이라 이미지 처리가 필요하면 다른 모델과 병행해야 해요. 코딩 에이전트 작업에는 강하지만 SWE-bench 기준으로는 Claude Opus 4.6(75.6%)보다 낮은 63.2%예요.





