想象一下,客户咨询页面上坐着的不是文字聊天机器人,而是一位会与你对视、会做表情、会打手势的 AI 角色。2026 年 3 月 9 日,Runway 让这一切成为现实。它的名字叫 Characters只需一张照片,就能生成一个实时视频代理。

3秒速览
上传 1 张照片 AI 实时生成视频角色 表情·手势·对口型自动完成 通过 API 嵌入网站 客户与 AI 视频对话

这是什么?

Runway Characters 是一款服务,凭借一张参考图就能创建可实时对话的 AI 视频代理。 它和以往的 AI 虚拟形象从根本上不同 —— 它不是在播放预录好的片段,而是实时生成的视频画面

驱动它的引擎是 GWM-1(General World Model,通用世界模型)。 这是 Runway 从 Gen-3 Alpha 时代就开始积累的视频生成模型的最新版本。它不只是对口型,还会根据对话上下文扬眉、歪头,甚至做手势。简单说,它会「演戏」。

关键在于它以 API 形式提供,你可以用几行代码把它嵌到自己的网站或应用中。 BBC 和 Silverside 已经作为早期合作伙伴加入。

53 亿美元
Runway 估值(2026.02)
30 分钟
API 最长会话时长
2 积分
每 6 秒成本
30 分钟
新开发者免费额度

Runway Characters 具体能做些什么:

  • 即时生成角色 —— 从一张照片,做出从逼真写实到动画风格的各种角色。不需要额外的 3D 建模或动作捕捉。
  • 完整的对话表现力 —— 表情变化、眼球运动、对口型、手势都会根据对话上下文实时生成。
  • 完全可定制 —— 通过 API 可以细致调节角色外观、语气和反应风格。
  • 预设虚拟形象 —— 如果暂时不方便上传照片,可以在 app.runwayml.com/characters 直接使用已经做好的预设形象。

视频代理 ≠ 虚拟形象视频

HeyGen、D-ID 这类服务做的是「播放预录好的视频」。Runway Characters 在对话进行中逐帧实时生成画面。哪怕是脚本之外的临时问题,它也能自然反应 —— 这才是核心差异。

有什么不同?

往网站里放一个「AI 角色」的方法早就存在了。HeyGen Avatar、D-ID Agents,还有文字聊天机器人。但它们各自的局限都很明显。

HeyGen / D-ID 文字聊天机器人 Runway Characters
对话方式 预录片段播放 / 有限实时 文字输入输出 实时视频对话
表现力 以对口型为主,手势有限 仅表情符号/文字 表情+眼神+手势+对口型
上下文反应 基于预设脚本 基于 LLM(灵活) 接入 LLM + 视觉反应
实现方式 插件/iframe 嵌入 聊天组件 API 集成(自由度高)
角色生成 棚内拍摄或预训练 不适用 1 张照片即时生成

核心差异在于「实时性」。 HeyGen 和 D-ID 是按照触发条件播放事先做好的视频,脚本外的问题就没法应对。Runway Characters 每一刻都在生成新的画面,所以就算是意料之外的问题,也能配合自然的表情和手势做出反应。

跟文字聊天机器人对比,差异就更戏剧化了。同样的回答,一个是与你对视、点头的 AI,另一个是文本框里一个个蹦字 —— 用户的信任度和满意度完全是两个量级。

会话时长也按用途分了档:

平台 最长会话 用途
Web 应用(app.runwayml.com) 2 分钟 体验/演示
开发者平台 5 分钟 原型开发
API 集成 30 分钟 生产环境服务

上手指南

  1. 先去体验一下
    app.runwayml.com/characters 可以用预设形象对话 2 分钟,有账号就行。先找找感觉。
  2. 注册开发者门户
    dev.runwayml.com 开一个开发者账号。新开发者可获得 30 分钟免费积分。
  3. 准备参考图
    准备一张要做成角色的照片,最好是正面清晰的高分辨率图像。写实风格、插画、3D 角色等风格可以自由选择。
  4. 接入 API
    按 Characters API 文档把它嵌入你的网站。对话逻辑直接复用你现在用的 LLM API(OpenAI、Claude 等)即可,Runway 只负责视觉层。
  5. 自定义并部署
    通过 API 参数调节角色的反应速度、表情强度、背景等,然后推到生产环境。API 集成方式最长支持 30 分钟会话。