想象一下,客户咨询页面上坐着的不是文字聊天机器人,而是一位会与你对视、会做表情、会打手势的 AI 角色。2026 年 3 月 9 日,Runway 让这一切成为现实。它的名字叫 Characters。只需一张照片,就能生成一个实时视频代理。
这是什么?
Runway Characters 是一款服务,凭借一张参考图就能创建可实时对话的 AI 视频代理。 它和以往的 AI 虚拟形象从根本上不同 —— 它不是在播放预录好的片段,而是实时生成的视频画面。
驱动它的引擎是 GWM-1(General World Model,通用世界模型)。 这是 Runway 从 Gen-3 Alpha 时代就开始积累的视频生成模型的最新版本。它不只是对口型,还会根据对话上下文扬眉、歪头,甚至做手势。简单说,它会「演戏」。
关键在于它以 API 形式提供,你可以用几行代码把它嵌到自己的网站或应用中。 BBC 和 Silverside 已经作为早期合作伙伴加入。
Runway Characters 具体能做些什么:
- 即时生成角色 —— 从一张照片,做出从逼真写实到动画风格的各种角色。不需要额外的 3D 建模或动作捕捉。
- 完整的对话表现力 —— 表情变化、眼球运动、对口型、手势都会根据对话上下文实时生成。
- 完全可定制 —— 通过 API 可以细致调节角色外观、语气和反应风格。
- 预设虚拟形象 —— 如果暂时不方便上传照片,可以在 app.runwayml.com/characters 直接使用已经做好的预设形象。
视频代理 ≠ 虚拟形象视频
HeyGen、D-ID 这类服务做的是「播放预录好的视频」。Runway Characters 在对话进行中逐帧实时生成画面。哪怕是脚本之外的临时问题,它也能自然反应 —— 这才是核心差异。
有什么不同?
往网站里放一个「AI 角色」的方法早就存在了。HeyGen Avatar、D-ID Agents,还有文字聊天机器人。但它们各自的局限都很明显。
| HeyGen / D-ID | 文字聊天机器人 | Runway Characters | |
|---|---|---|---|
| 对话方式 | 预录片段播放 / 有限实时 | 文字输入输出 | 实时视频对话 |
| 表现力 | 以对口型为主,手势有限 | 仅表情符号/文字 | 表情+眼神+手势+对口型 |
| 上下文反应 | 基于预设脚本 | 基于 LLM(灵活) | 接入 LLM + 视觉反应 |
| 实现方式 | 插件/iframe 嵌入 | 聊天组件 | API 集成(自由度高) |
| 角色生成 | 棚内拍摄或预训练 | 不适用 | 1 张照片即时生成 |
核心差异在于「实时性」。 HeyGen 和 D-ID 是按照触发条件播放事先做好的视频,脚本外的问题就没法应对。Runway Characters 每一刻都在生成新的画面,所以就算是意料之外的问题,也能配合自然的表情和手势做出反应。
跟文字聊天机器人对比,差异就更戏剧化了。同样的回答,一个是与你对视、点头的 AI,另一个是文本框里一个个蹦字 —— 用户的信任度和满意度完全是两个量级。
会话时长也按用途分了档:
| 平台 | 最长会话 | 用途 |
|---|---|---|
| Web 应用(app.runwayml.com) | 2 分钟 | 体验/演示 |
| 开发者平台 | 5 分钟 | 原型开发 |
| API 集成 | 30 分钟 | 生产环境服务 |
上手指南
- 先去体验一下
在 app.runwayml.com/characters 可以用预设形象对话 2 分钟,有账号就行。先找找感觉。 - 注册开发者门户
到 dev.runwayml.com 开一个开发者账号。新开发者可获得 30 分钟免费积分。 - 准备参考图
准备一张要做成角色的照片,最好是正面清晰的高分辨率图像。写实风格、插画、3D 角色等风格可以自由选择。 - 接入 API
按 Characters API 文档把它嵌入你的网站。对话逻辑直接复用你现在用的 LLM API(OpenAI、Claude 等)即可,Runway 只负责视觉层。 - 自定义并部署
通过 API 参数调节角色的反应速度、表情强度、背景等,然后推到生产环境。API 集成方式最长支持 30 分钟会话。




