LLMのファインチューニング(fine-tuning)といえば、思い浮かぶ光景がありますよね。ターミナルでCUDA環境をセットアップして、データセットのフォーマット合わせに手間取り、結局GPUメモリ不足でOOMエラー。このプロセスを最初から最後までWebブラウザで、コードなしにできるとしたら?

3秒で要約
Unsloth Studioをインストール(1行) PDF・CSVでデータセットを自動生成 500以上のモデルをノーコードで訓練 GGUF/Ollamaへワンクリックで書き出し 自分のドメイン専用AIの完成

これは何?

Unsloth Studioは2026年3月17日に公開されたオープンソースのノーコードWeb UIです。LLMの訓練、実行、書き出しの全工程を、ひとつのローカルインターフェースで処理できます。 Unslothという名前、聞いたことはありますか?GitHubスター数が53,900を超えるオープンソースのファインチューニングライブラリで、今回はそこにWeb UIを載せた形です。

ポイントはシンプルです。コードを知らなくてもファインチューニングができるようにすること。 データ準備から訓練、リアルタイムモニタリング、モデル比較、書き出しまで — すべてブラウザで完結します。しかも100%ローカルで動くので、データが外部に漏れる心配もありません。

対応モデルは500種類以上。Qwen 3.5、DeepSeek-R1、Llama 4、NVIDIA Nemotron 3などの最新モデルはもちろん、テキストだけでなくビジョン、TTS、オーディオ、埋め込みモデルまでカバーしています。

2倍
速い訓練速度
70%
VRAMを節約
500+
対応モデル数
$0
利用コスト

何が変わるのか?

これまでLLMファインチューニングの選択肢は大きく三つでした。コードで直接やるか、クラウドプラットフォームにお金を払うか、諦めるか。Unsloth Studioは四つ目の道を開きました。

手動ファインチューニング(コード)クラウドプラットフォームUnsloth Studio
コーディングPython・CUDA必須最低限(APIレベル)不要(ノーコード)
コストGPUハードウェアのみ時間課金($2〜10/時)完全無料
データプライバシーローカル保管外部サーバーへ送信100%ローカル
訓練速度標準(1x)標準(1x)2〜5倍速い
VRAM使用量標準サーバー処理70%削減
データセット準備手動でコーディング一部自動化PDFをアップロードするだけで自動生成
書き出し手動変換プラットフォーム依存GGUF、Ollama、vLLMをワンクリック

秘密はUnslothが手書きしたTritonカーネルにあります。 PyTorchの汎用CUDAカーネルの代わりに、LLMアーキテクチャに最適化した逆伝播演算をTritonで新たに実装しました。これにより精度の損失なく、2倍の速度と70%のメモリ節約を同時に実現しています。

実際の数字で見るとこんな感じです。RTX 4090が1枚あれば、8Bパラメータのモデルをファインチューニングできます。本来ならマルチGPUクラスターが必要だった作業です。MoE(Mixture-of-Experts)アーキテクチャでは最大12倍まで速くなることもあります。

「Unslothはほぼすべてのフォーチュン500企業で使われており、独立系LLM配布プラットフォームとして4番目の規模です。」

— Daniel Han、Unsloth創業者、Hacker Newsコメント

主要機能:これもできるの?

Data Recipes — PDFをアップロードするとデータセットが生成される

ファインチューニングで一番手間がかかるのがデータセットの準備ですよね。Unsloth StudioのData Recipesは、ビジュアルノードベースのワークフローでこれを解決します。 PDF、CSV、DOCX、JSONファイルをアップロードすると、NVIDIAのDataDesigner技術を活用して自動的に学習用データセットに変換してくれます。ChatMLでもAlpacaでも、フォーマットも自動で合わせてくれます。

GRPO — 推論能力を強化する学習

一般的なSFT(教師ありファインチューニング)だけではありません。DeepSeek-R1の推論能力を生み出した核心技法であるGRPO(Group Relative Policy Optimization)が内蔵されています。 従来のPPOは別途Criticモデルが必要でVRAMを2倍消費していましたが、GRPOはグループ単位で報酬を計算するため、コンシューマー向けGPUでも実行できます。

Model Arena — 訓練前後の比較

ベースモデルとファインチューニング済みモデルを並べて会話させることができます。 訓練効果を直感的に確認できる機能です。

ワンクリック書き出し

訓練が終わったら、GGUF(llama.cpp、Ollama、LM Studio用)、safetensors(HuggingFace、vLLM用)などの形式にすぐ書き出せます。 LoRAアダプターのマージからフォーマット変換まで自動で処理されます。

始め方のポイント

  1. 1行でインストール
    Mac/Linux/WSLではターミナルに1行入力するだけです。
    curl -fsSL https://raw.githubusercontent.com/unslothai/unsloth/main/install.sh | sh
    WindowsはPowerShellで:
    irm https://raw.githubusercontent.com/unslothai/unsloth/main/install.ps1 | iex
    Dockerにも対応しています。初回インストール時はllama.cppのコンパイルで5〜10分かかります。
  2. Studioを起動
    source unsloth_studio/bin/activateの後にunsloth studio -H 0.0.0.0 -p 8888を実行すると、ブラウザでStudioが開きます。 GPUのないMacでも、GGUF推論とData Recipesは使えます。
  3. モデルを選択
    Hugging Faceでモデルを検索するか、ダウンロード済みのGGUF/safetensorsファイルを読み込みます。LM Studioで入手済みのモデルも自動認識されます。
  4. データを準備する(Data Recipes)
    学習させたいドキュメント(PDF、CSVなど)をアップロードすると、ノードベースのエディターでデータセットに変換されます。 合成データの生成も可能です。データなしでそのまま訓練を始めることもできます。
  5. 訓練を開始
    おすすめのプリセットでそのまま始めるか、YAML設定を読み込んで細かく調整することもできます。 訓練中のloss曲線やGPU使用率をリアルタイムで確認しながら — スマートフォンからでも確認できます。
  6. 書き出し & デプロイ
    訓練が終わったら、GGUF、safetensorsなど好みの形式で書き出します。 Ollamaにそのまま上げたり、vLLMサーバーにデプロイしたり、HuggingFace Hubにプッシュするだけで完了です。

GPUがない場合は?

Google Colabの無料T4 GPUでもUnsloth Studioを実行できます。 22BパラメータのモデルまでトレーニングOKです。ただしllama.cppのコンパイルに30分以上かかるので、より大きなGPUを選ぶと快適です。

どんな用途に使える?

ファインチューニングは、汎用AIを「自分の業務専門家」に変える作業です。Unsloth Studioが特に活きるシナリオを紹介します:

  • 社内ナレッジチャットボット — 社内文書(PDF、マニュアル)をData Recipesでデータセット化して、社内用語やプロセスを理解するチャットボットを作れます。データが外部に出ないのでセキュリティの心配もありません。
  • ドメイン特化型コーディングアシスタント — チームのコードスタイル、使用しているフレームワーク、内部APIドキュメントを学習させて、チーム専用Copilotを作れます。
  • 多言語専門翻訳 — 特定分野(法律、医療、ゲーム)の専門用語の翻訳精度を大幅に高められます。
  • 推論能力の強化 — GRPOで数学、論理、コーディング問題の解決能力を高めた「ミニDeepSeek-R1」を作れます。

競合ツールとの比較

Unsloth StudioLLaMA-FactoryHF AutoTrainTogether AI
タイプローカルWeb UI(オープンソース)ローカルWeb UI(オープンソース)クラウドSaaSクラウドAPI
GitHubスター53.9K68.4K--
訓練速度2〜5倍速い標準標準標準
VRAM節約最大70%標準サーバー処理サーバー処理
データセット生成Data Recipes(ビジュアル)手動一部自動手動
GRPOサポート内蔵対応非対応非対応
コスト無料無料有料有料
プライバシー100%ローカル100%ローカルクラウドクラウド
弱点Macでの訓練は未対応(近日対応予定)デバッグが難しく、ドキュメントが少ないカスタマイズが制限される継続コスト、ベンダー依存

LLaMA-Factoryはモデル互換性では優れていますが、速度とメモリ効率ではUnsloth Studioが圧倒的です。 特にコンシューマー向けGPUで作業する個人開発者や小規模チームにとっては、事実上唯一の選択肢といえます。

注意点

現在はベータ版です。訓練はNVIDIA GPUのみ対応しており、MacではGGUF推論とData Recipesのみ使えます(MLX訓練は近日対応予定)。 AMD・Intel GPUのサポートもロードマップに入っています。また、Studio UIはAGPL-3.0ライセンスのため、内部SaaSとして変形してサービス提供する場合はソースコードの公開義務があります。