問い合わせページにテキストチャットボットの代わりに、アイコンタクトをしながら表情を作り、ジェスチャーするAIキャラクターがいたら、どうでしょう?2026年3月9日、Runwayがそれを現実にしました。名前はCharacters写真1枚でリアルタイムビデオエージェントが作れます。

3秒で要約
写真1枚アップロード AIがリアルタイムでビデオキャラクターを生成 表情・ジェスチャー・リップシンク自動 APIでWebサイトに組み込み 顧客がAIとビデオ会話

これは何?

Runway Charactersは、参照画像1枚でリアルタイム会話ができるAIビデオエージェントを作るサービスです。 従来のAIアバターと根本的に違うのは、録画したクリップを再生するのではなく、リアルタイムで生成される映像という点です。

裏側で動くエンジンはGWM-1(General World Model)です。 RunwayがGen-3 Alpha時代から積み上げてきたビデオ生成モデルの最新版です。このモデルは単に口の動きを合わせるだけでなく、会話の文脈に応じて眉を上げ、首をかしげ、手振りまで作り出します。いわば「表情演技」をするわけです。

重要なのは、これがAPIとして提供されるという点です。自分のWebサイト、自分のアプリにコード数行で組み込めます。 BBCとSilversideがすでに初期パートナーとして参加しています。

$5.3B
Runwayのバリュエーション(2026年2月)
30分
APIの最大セッション時間
2クレジット
6秒あたりのコスト
30分
新規開発者への無料提供

Runway Charactersでできることを具体的に見ると:

  • 即時キャラクター生成 — 写真1枚からフォトリアリスティックなものからアニメーションスタイルまで。別途3Dモデリングやモーションキャプチャは不要です。
  • フル対話型表現力 — 表情の変化、目の動き、リップシンク、ジェスチャーが会話の文脈に合わせてリアルタイム生成されます。
  • 完全なカスタマイズ — APIを通じてキャラクターの外見、話し方、反応スタイルを細かく調整できます。
  • プリセットアバター — 写真を用意するのが難しければ、app.runwayml.com/charactersからあらかじめ作られたアバターをすぐ使えます。

ビデオエージェント ≠ アバター映像

HeyGen、D-IDといった既存サービスが作るのは「あらかじめ録画した映像を再生する」ものです。Runway Charactersは会話が進む間、毎フレームをリアルタイム生成します。台本なしで突然の質問をされても自然に反応できるのが、核心的な違いです。

何が変わるのか?

Webサイトに「AIキャラクター」を組み込む方法はすでにありました。HeyGen Avatar、D-ID Agents、そしてテキストチャットボット。ただ、それぞれ明確な限界がありました。

HeyGen / D-ID テキストチャットボット Runway Characters
会話方式 録画クリップ再生 / 限定的なリアルタイム テキスト入出力 リアルタイムビデオ会話
表現力 リップシンク中心、ジェスチャーは限定的 絵文字・テキストのみ 表情+目の動き+ジェスチャー+リップシンク
文脈への反応 事前台本ベース LLMベース(柔軟) LLM連携+視覚的反応
実装方式 ウィジェット/iframe埋め込み チャットウィジェット API統合(自由度高)
キャラクター生成 スタジオ撮影 or 事前学習 該当なし 写真1枚で即時生成

核心的な違いは「リアルタイム性」です。 HeyGenやD-IDはあらかじめ作った映像をトリガーに合わせて再生する方式です。台本にない質問が来ても対応できません。Runway Charactersは毎瞬間新しいフレームを生成するため、想定外の質問にも自然な表情とジェスチャーで反応します。

テキストチャットボットと比べると差はさらに歴然です。同じ答えでも、アイコンタクトをしながらうなずくAIと、テキストボックスに文字が流れてくるものとでは、ユーザーの信頼感と満足度がまったく異なります。

セッション時間も用途別に分かれています:

プラットフォーム 最大セッション 用途
Webアプリ(app.runwayml.com) 2分 体験・デモ
開発者プラットフォーム 5分 プロトタイピング
API統合 30分 本番サービス

始め方のポイント

  1. まずは体験してみる
    app.runwayml.com/charactersでプリセットアバターと2分間会話できます。アカウントがあればすぐ試せます。まずは感触をつかんでみてください。
  2. 開発者ポータルに登録する
    dev.runwayml.comで開発者アカウントを作ってください。新規開発者には30分分の無料クレジットが付与されます。
  3. 参照画像を準備する
    キャラクターにする写真を1枚用意してください。正面の顔がはっきり見える高解像度の画像が最適です。フォトリアリスティック、イラスト、3Dキャラクターなど、スタイルは自由に選べます。
  4. APIを連携する
    Characters APIのドキュメントに従ってWebサイトに組み込んでください。会話ロジックは既存で使っているLLM API(OpenAI、Claudeなど)をそのまま接続できます。Runwayはビジュアルレイヤーだけを担当します。
  5. カスタマイズして本番公開
    キャラクターの反応速度、表現の強度、背景などをAPIパラメーターで調整し、本番環境にデプロイしてください。API統合なら最大30分のセッションまで対応します。