LLMのコストは$0です。」台湾のあるソロ開発者がHacker Newsに投稿した記事が話題になっています。 Gemini 2.5 Flashの無料ティアだけで4つのAIエージェントがコンテンツ生成、営業リード発掘、セキュリティスキャン、運営管理を自動化しているというんです。27のソーシャルアカウントで330万ビュー。月のインフラ費用はわずか$5。

3秒で要約
Gemini無料ティアを選択 4つの専門エージェントを構築 データ収集はHTTP、創作だけLLM 1日105件で日次上限の7%のみ使用 27アカウントを自動運営

これは何?

Bo Liuという名のこの開発者は、台湾で1人テックエージェンシーを運営しています。 OpenClaw(オープンソースAIエージェントプラットフォーム)をベースに4つのエージェントをWSL2上で動かしており、各エージェントの役割が明確です:

エージェント 役割 主な作業
コンテンツエージェント ソーシャルメディア投稿の生成 1日8投稿、セルフレビューで品質ゲーティング
営業エージェント 見込み客の発掘 セキュリティスキャンでリード生成、顧客データ同期
セキュリティエージェント セキュリティ脆弱性のスキャン 見込み客サイト分析、レポート生成
運営エージェント 日常運営の管理 エンドポイント監視、データ同期

この構造が特別な理由は、LLMは創作作業にだけ使い、データ収集はすべてHTTPで処理する」という設計原則にあります。 RSSフィード、Hacker News、ウェブスクレイピング — こういったリサーチパイプラインはLLMトークンを1つも使いません。Jina Readerのようなツールで純粋なHTTP呼び出しだけで処理するんです。

$0
月のLLM費用
27
自動運営ソーシャルアカウント
3.3M+
累計閲覧数
~$5
月のインフラ費用

何が変わるのか?

「AIエージェントで自動化」という話はよく耳にすると思います。この事例が違う点は2つあります。

第一に、本当の$0 LLMコスト。 多くのAI自動化事例が「安い」と言いながら、月数十〜数百ドルのAPI費用を隠しています。この方はGemini 2.5 Flashの日次無料上限1,500件のうち105件しか使っていないので、93%の余裕が残っています

第二に、「1人会社」モデルの具体的な実証。 Bo LiuのMediumの記事で語られているOne-Person Company(OPC)の概念は、抽象的な未来ではなく、今まさに動いているシステムです。 エージェントがコンテンツ担当、営業担当、セキュリティエンジニア、運営マネージャーの役割をそれぞれ担っています。

なぜGemini無料ティアなのか?

Gemini 2.5 FlashはGoogle AI Studioで無料で使えます。1日1,500件リクエスト、RPM 30という制限がありますが、核心戦略はシンプルです — 「1回のリクエストにすべてのコンテキストを注入して、1回のレスポンスで完結させる。」 複数回のやり取りをする代わりに、事前に整理したローカルのマークダウンファイル(トークン消費ゼロ)をコンテキストとして渡し、一度で結果を受け取ります。

比較項目 一般的なAI自動化 Gemini無料ティアスタック
LLMコスト $50〜$200+/月 $0
インフラコスト $20〜$100/月 ~$5(Vercel + Firebase無料ティア)
API呼び出し戦略 複数回の会話、チェーン 1回の呼び出しにすべてのコンテキストを注入
データ収集 LLMでパース 純粋なHTTP(トークン消費ゼロ)
スケジューリング 外部cronサービス systemdタイマー25個

Bo Liuはある失敗談も共有しています — GCPの課金アカウントのAPIキーを誤って使い、$127の請求書を受け取ったそうです。 AI StudioのキーとGCPプロジェクトのキーを混同したんです。無料ティアの落とし穴がまさにここにあります。

無料ティアのリスク

Gemini無料ティアは、Google AI Studioで生成したキーだけが無料です。GCPコンソールで作ったキーは同じモデルでも有料で課金されます。キー管理を誤ると、あっという間に数百ドルが引き落とされかねません。また無料ティアは商用利用に制限がある場合があるので、利用規約を必ず確認してください。

始め方のポイント

  1. Gemini APIキーを取得する
    Google AI Studio(ai.google.dev)で無料APIキーを取得してください。必ずAI Studioで作成する必要があります — GCPコンソールではありません。 1日1,500件のリクエストが無料で、Gemini 2.5 Flashモデルが使えます。
  2. データパイプラインをLLMと分離する
    これが核心の設計原則です。RSSフィード収集、ウェブスクレイピング、API呼び出しといったデータ収集作業にはLLMを使わないでください。Pythonのrequests、feedparser、Jina Readerのようなツールで純粋なHTTP処理をしてください。LLMトークンは「判断」と「生成」にだけ使うんです。
  3. 「1リクエスト = 1結果」パターンを適用する
    無料ティアのRPM制限を乗り越える方法です。事前に収集したデータをローカルのマークダウンファイルに整理し、LLM呼び出し時にすべてのコンテキストを一度に注入して、一度のレスポンスで結果を受け取ってください。 マルチターンの会話はコストと時間の無駄です。
  4. OpenClawまたは類似プラットフォームをセットアップする
    OpenClawはオープンソースのAIエージェントプラットフォームです。 WSL2、Docker、またはサーバーにインストールしてGemini APIを接続すれば、エージェントを作れます。ただし、Bo Liuが共有しているように、プロダクションレベルに引き上げるにはかなりのカスタマイズが必要です。
  5. 小さく始めて拡張していく
    最初から4つのエージェントを作らないでください。コンテンツエージェント1つから始めましょう — 「RSSからトレンドトピックを収集 → Geminiで下書き作成 → セルフレビュー → ソーシャルアカウントに投稿」この1つのパイプラインが安定したら、次のエージェントを追加するんです。