"LLM成本是$0。"台湾一位独立开发者在Hacker News上发的这篇帖子火了。仅靠Gemini 2.5 Flash免费额度,他搭建的4个AI智能体自动处理内容生成、销售线索挖掘、安全扫描和运营管理。27个社交账号,累计330万浏览量。每月基础设施成本只要$5。
这是什么?
这位开发者名叫Bo Liu,在台湾经营一家单人技术工作室。他基于OpenClaw(开源AI智能体平台)在WSL2上跑了4个智能体,每个智能体的角色都划分得很清晰:
| 智能体 | 角色 | 主要工作 |
|---|---|---|
| 内容智能体 | 生成社交媒体帖子 | 每日8篇帖子,自审核把控质量 |
| 销售智能体 | 挖掘潜在客户 | 通过安全扫描生成线索,同步客户数据 |
| 安全智能体 | 扫描安全漏洞 | 分析潜在客户网站,生成报告 |
| 运营智能体 | 日常运营管理 | 端点监控,数据同步 |
这套架构特别的地方,关键在于"LLM只负责创作工作,数据采集全部走HTTP"这条设计原则。RSS订阅、Hacker News、网页抓取——这些调研流水线一个LLM token都不花。用Jina Reader这类工具,纯HTTP调用搞定。
有什么不同?
"AI智能体做自动化"的说法你肯定听过不少。这个案例不一样的地方有两点。
第一,真正的$0 LLM成本。大部分AI自动化案例嘴上说"便宜",实际上每月API账单几十到几百美元是藏着掖着的。这位开发者每天只用掉Gemini 2.5 Flash免费额度1,500次中的105次,还剩93%没用。
第二,"一人公司"模式的具体验证。Bo Liu在Medium那篇文章里提到的One-Person Company(OPC)概念,不是抽象的未来愿景,而是现在就在运行的系统。智能体分别扮演内容负责人、销售负责人、安全工程师和运营经理的角色。
为什么选Gemini免费额度?
Gemini 2.5 Flash在Google AI Studio里可以免费使用。虽然有每日1,500次请求、RPM 30的限制,但核心策略其实很简单——"一次请求里塞进所有上下文,用一次响应搞定。"不搞多轮对话,而是把事先整理好的本地Markdown文件(消耗0 token)作为上下文一次性喂进去,一次就拿到结果。
| 对比项 | 常规AI自动化 | Gemini免费额度方案 |
|---|---|---|
| LLM成本 | $50~$200+/月 | $0 |
| 基础设施成本 | $20~$100/月 | ~$5(Vercel + Firebase免费额度) |
| API调用策略 | 多轮对话、链式调用 | 一次调用注入全部上下文 |
| 数据采集 | 靠LLM解析 | 纯HTTP(0 token消耗) |
| 任务调度 | 外部cron服务 | 25个systemd定时器 |
Bo Liu还分享了一次踩坑——他不小心用了绑定计费的GCP账号API key,结果收到$127账单。他把AI Studio的key和GCP项目的key搞混了。免费额度的陷阱就藏在这里。
免费额度的风险
Gemini免费额度只对Google AI Studio里生成的key有效。在GCP控制台里创建的key,哪怕用的是同一个模型,也会按付费计费。key管理出问题,几百美元瞬间就没了。另外,免费额度对商业用途可能有限制,请务必确认服务条款。
上手指南
- 申请Gemini API key
去Google AI Studio(ai.google.dev)申请免费API key。注意一定要在AI Studio里创建——不是在GCP控制台。每日1,500次请求免费,可以使用Gemini 2.5 Flash模型。 - 把数据流水线和LLM分开
这是核心设计原则。RSS采集、网页抓取、API调用这类数据采集工作,不要动用LLM。用Python的requests、feedparser、Jina Reader这类工具,纯HTTP搞定。LLM的token只留给"判断"和"生成"。 - 采用"一请求=一结果"模式
这是突破免费额度RPM限制的关键。事先把采集到的数据整理成本地Markdown文件,调用LLM时把所有上下文一次性注入,一次响应拿到结果。多轮对话既浪费成本又浪费时间。 - 部署OpenClaw或类似平台
OpenClaw是一个开源AI智能体平台。装在WSL2、Docker或服务器上,接入Gemini API就能搭建智能体。不过像Bo Liu这样跑到生产级别,需要做大量定制化工作。 - 从小开始,逐步扩展
不要一上来就做4个智能体。从一个内容智能体开始——"RSS采集热门话题 → Gemini写初稿 → 自审核 → 发布到社交账号",这条流水线跑稳之后再加下一个智能体。



