「AIエージェントを作る」フェーズはもう終わった。本当の問題は「これをどう運用するか」だ。60件以上のエンタープライズ導入を経験したCohorte AIチームが、毎回同じように直面した6つのガバナンス課題を、6つのライブラリにまとめてオープンソースで公開した。
このスタックは結局何なのか
Cohorte AIは60社以上の企業環境にエージェントを直接デプロイしてきたチームだ。その過程で毎回同じ壁にぶつかった — モデル性能ではなく、モデルを取り巻くシステムが曖昧で本番環境で崩れるという問題だ。
Hacker Newsで「Show HN」として公開されたこのスタックは、Cohorte-ai GitHubオーガニゼーションに6つのリポジトリとして並んでいる。すべてPython、Apache 2.0ライセンス。LangGraphやCrewAIのようなオーケストレーションフレームワークを置き換えるものではなく、その上に乗せるガバナンス層だ。
- Guardrails — ポリシー層
YAMLで入力・出力・ツール呼び出し・承認ポリシーを宣言。プロンプトインジェクションのブロックやPIIの自動マスクといったルールをコードではなくポリシーファイルで管理する。 - Agent Auth — 認証/認可層
「このユーザーがXできるか」ではなく「このエージェントが、このユーザーに代わって、いま、このリソースに対してXできるか」に答える、エージェント特化の委任権限モデル。 - Context Router — 検索ルーティング
関連性スコアだけでは足りない。権限・トークン予算・説明可能性をまとめて、どのコンテキストを引き出すかを決める。 - Context Kubernetes — 知識オーケストレーション
エンタープライズ知識を「ドキュメント検索結果」ではなく「ガバナンスされるインフラ」として扱う。権限・鮮度・承認ポリシーを宣言的なYAMLで管理。 - Agent Monitor — 可観測性 + キルスイッチ
レイテンシやスループットといった一般的な可観測性を超え、コスト急増・拒否率・承認のボトルネックを検知し、しきい値を超えたら自動でエージェントを停止する。 - TrustGate — 信頼性認証
「なんとなく動いてる」ではなく「統計的保証付きで信頼度X%」をデプロイゲートにする。self-consistencyサンプリング + conformal calibration。
核心の洞察はシンプルだ。エージェントはモデルが弱いから失敗するのではなく、モデル周辺のシステムが曖昧だから失敗する。Cohorteが60件のデプロイで見つけたパターンがこれだ。デモで見栄えするワークフローが本番で崩壊する理由は、ポリシー・権限・コンテキスト・可観測性・信頼性の5つの問いに答えがないからだ。
なぜいまこれが重要か
OWASPが2025年12月に初めて「Agentic AI Top 10」を発表した。目標ハイジャック、ツールの誤用、ID窃取、メモリ汚染、連鎖障害、ログエージェント — すべて「エージェント運用」の問題だ。 EU AI Actは2026年8月から高リスクAI義務を強制し、Colorado AI Actも2026年6月から施行される。インフラが規制に追いついていない。
オーケストレーションフレームワークと何が違うのか
ここが一番混乱しやすい。LangGraph・CrewAI・OpenAI Agents SDKがすでにあるのに、また別のフレームワークが必要なのかという疑問は自然だ。答えは「これはフレームワークではなく、ガバナンス層」だ。
| オーケストレーションFW (LangGraphなど) | ガバナンススタック (Cohorte 6-library) | |
|---|---|---|
| 役割 | ワークフローの構築 | ワークフローの統制可能性を担保 |
| 主な問い | 「エージェントは何をするか」 | 「エージェントは何をしていいか」 |
| ポリシー管理 | コード内に分散 | 宣言的YAMLで一元管理 |
| 認証/認可 | 大半が人間用IAMの流用 | エージェント委任モデル専用設計 |
| 可観測性 | trace + metric (事後デバッグ) | キルスイッチ + コストしきい値 (実行時統制) |
| 信頼性 | テスト合否 | 統計的保証付きの信頼度スコア |
| デプロイ判断 | 「感覚で問題なければデプロイ」 | 「信頼度90%以上ならデプロイ」(CI/CDゲート) |
実際にはこのスタックだけを使うのではなく、既存オーケストレータ + ガバナンス層として組み合わせるのが本来の設計意図だ。たとえばユーザーが「この契約書を要約して購買部門に推薦して」と言ったとき — Guardrailsがポリシーをチェックし、Agent Authが委任権限を確認し、Context Routerが関連ソースを選び、Context Kubernetesが知識伝達を統制し、ワークフローはLangGraphが実行し、Agent Monitorがコスト・異常を追跡し、TrustGateがそのワークフロークラスの信頼性認証で裏付ける。
これがデモと本番の差だ。一方はデモ会議で拍手をもらい、もう一方はレビュー会議を通過する。
面白いのは、似た発想が同時多発的に立ち上がっていることだ。Microsoftも2026年4月にAgent Governance ToolkitをMITライセンスでオープンソース化した。OSカーネル・サービスメッシュ・SREパターンをエージェントに適用した7パッケージで、ポリシーエンジンが0.1ミリ秒未満のレイテンシで全エージェントアクションをインターセプトする。OWASP Agentic Top 10のリスクカテゴリを全マッピングした最初のツールキットだ。
SailPointやOktaのような従来のIAMベンダーも「エージェント身元ガバナンス」フレームワークを次々に発表している。 これは偶然ではない。エージェント運用(Agent Ops)が独立したインフラ層として固まりつつあるシグナルだ。
核心だけ整理: 始め方
- もっとも痛むガバナンス領域を1つだけ選ぶ
6つ全部入れない。権限事故が多ければAgent Auth、コストが漏れているならAgent Monitor、出力がブレるならTrustGateから。Cohorteも明示的に「incremental adoption」を勧めている。 - YAMLでポリシーを1行書いてみる
たとえばGuardrailsならblock-prompt-injectionルール1つだけ追加して「ignore previous instructions」のようなパターンを弾くところから。pip install theaios-guardrailsしてから30分で動く。 - キルスイッチのしきい値をエンジニア以外と合意する
Agent Monitorの本質はcost_per_minute > 5.0ならkillのような単純なルールだ。エンジニアが一人で決めず、PMや財務と合意するプロセスこそがガバナンスの本体だ。 - デプロイゲートに信頼度しきい値を埋め込む
TrustGateはtrustgate certify --min-reliability 90 --yesの1行でCI/CDに刺さる。90%未満ならビルド失敗。「感覚」を「数値」に変える出発点だ。 - Microsoftのツールキットも比較検討
同じ問題を解くMicrosoft Agent Governance ToolkitはOWASP Top 10を明示的にマッピングし、LangChain・CrewAI・LangGraphなどの統合アダプタを提供する。両方ともMIT/Apache 2.0でライセンス上の負担はない。チームのスタックに合うほうを選べばいい。
注意: これは万能ではない
Atlanの整理によれば、エージェントのガードレールは5つの層がそろって初めて機能する — データ/コンテキスト、設計時ガバナンス、実行時ガード、ID/アクセス、ヒューマンオーバーサイト。 Cohorteスタックは実行時 + 一部設計時をカバーするもので、「AI-readyなデータ」自体がなければ何を上に乗せても幻覚は止まらない。Gartnerは60%のAIプロジェクトがAI-readyデータの不足で破棄されると予測している。 ガバナンススタックはその上に乗せるものであって、データ問題を自動で解決してはくれない。
もっと深く知りたいなら
Show HN原文 60社超の運用経験から導いた6ライブラリの公開告知 — コメントでコミュニティの反応も news.ycombinator.com
Cohorte AI GitHubオーガニゼーション trustgate / guardrails / context-router / context-kubernetes / agent-monitor / agent-authの6つを一カ所で github.com
The Enterprise Agentic Platformプレイブック Charafeddine Mouzouni氏による無料アーキテクチャ青写真。スタックの設計意図と統合の使い方 cohorte.co
Microsoft Agent Governance Toolkit OSカーネル・サービスメッシュ・SREパターンをエージェントに適用した7パッケージのオープンソース — OWASP Top 10を全マッピング opensource.microsoft.com
Atlan — AI Agent Risks & Guardrailsガイド 5層ガードレールモデル、AWAREフレームワーク、データガバナンスとの結合 atlan.com
SailPoint — Governing AI Agentsフレームワーク エージェントID sprawlと権限driftを止めるためのIAMベンダー視点 sailpoint.com




