LLMのファインチューニング(fine-tuning)といえば、思い浮かぶ光景がありますよね。ターミナルでCUDA環境をセットアップして、データセットのフォーマット合わせに手間取り、結局GPUメモリ不足でOOMエラー。このプロセスを最初から最後までWebブラウザで、コードなしにできるとしたら?
これは何?
Unsloth Studioは2026年3月17日に公開されたオープンソースのノーコードWeb UIです。LLMの訓練、実行、書き出しの全工程を、ひとつのローカルインターフェースで処理できます。 Unslothという名前、聞いたことはありますか?GitHubスター数が53,900を超えるオープンソースのファインチューニングライブラリで、今回はそこにWeb UIを載せた形です。
ポイントはシンプルです。コードを知らなくてもファインチューニングができるようにすること。 データ準備から訓練、リアルタイムモニタリング、モデル比較、書き出しまで — すべてブラウザで完結します。しかも100%ローカルで動くので、データが外部に漏れる心配もありません。
対応モデルは500種類以上。Qwen 3.5、DeepSeek-R1、Llama 4、NVIDIA Nemotron 3などの最新モデルはもちろん、テキストだけでなくビジョン、TTS、オーディオ、埋め込みモデルまでカバーしています。
何が変わるのか?
これまでLLMファインチューニングの選択肢は大きく三つでした。コードで直接やるか、クラウドプラットフォームにお金を払うか、諦めるか。Unsloth Studioは四つ目の道を開きました。
| 手動ファインチューニング(コード) | クラウドプラットフォーム | Unsloth Studio | |
|---|---|---|---|
| コーディング | Python・CUDA必須 | 最低限(APIレベル) | 不要(ノーコード) |
| コスト | GPUハードウェアのみ | 時間課金($2〜10/時) | 完全無料 |
| データプライバシー | ローカル保管 | 外部サーバーへ送信 | 100%ローカル |
| 訓練速度 | 標準(1x) | 標準(1x) | 2〜5倍速い |
| VRAM使用量 | 標準 | サーバー処理 | 70%削減 |
| データセット準備 | 手動でコーディング | 一部自動化 | PDFをアップロードするだけで自動生成 |
| 書き出し | 手動変換 | プラットフォーム依存 | GGUF、Ollama、vLLMをワンクリック |
秘密はUnslothが手書きしたTritonカーネルにあります。 PyTorchの汎用CUDAカーネルの代わりに、LLMアーキテクチャに最適化した逆伝播演算をTritonで新たに実装しました。これにより精度の損失なく、2倍の速度と70%のメモリ節約を同時に実現しています。
実際の数字で見るとこんな感じです。RTX 4090が1枚あれば、8Bパラメータのモデルをファインチューニングできます。本来ならマルチGPUクラスターが必要だった作業です。MoE(Mixture-of-Experts)アーキテクチャでは最大12倍まで速くなることもあります。
「Unslothはほぼすべてのフォーチュン500企業で使われており、独立系LLM配布プラットフォームとして4番目の規模です。」
— Daniel Han、Unsloth創業者、Hacker Newsコメント
主要機能:これもできるの?
Data Recipes — PDFをアップロードするとデータセットが生成される
ファインチューニングで一番手間がかかるのがデータセットの準備ですよね。Unsloth StudioのData Recipesは、ビジュアルノードベースのワークフローでこれを解決します。 PDF、CSV、DOCX、JSONファイルをアップロードすると、NVIDIAのDataDesigner技術を活用して自動的に学習用データセットに変換してくれます。ChatMLでもAlpacaでも、フォーマットも自動で合わせてくれます。
GRPO — 推論能力を強化する学習
一般的なSFT(教師ありファインチューニング)だけではありません。DeepSeek-R1の推論能力を生み出した核心技法であるGRPO(Group Relative Policy Optimization)が内蔵されています。 従来のPPOは別途Criticモデルが必要でVRAMを2倍消費していましたが、GRPOはグループ単位で報酬を計算するため、コンシューマー向けGPUでも実行できます。
Model Arena — 訓練前後の比較
ベースモデルとファインチューニング済みモデルを並べて会話させることができます。 訓練効果を直感的に確認できる機能です。
ワンクリック書き出し
訓練が終わったら、GGUF(llama.cpp、Ollama、LM Studio用)、safetensors(HuggingFace、vLLM用)などの形式にすぐ書き出せます。 LoRAアダプターのマージからフォーマット変換まで自動で処理されます。
始め方のポイント
- 1行でインストール
Mac/Linux/WSLではターミナルに1行入力するだけです。curl -fsSL https://raw.githubusercontent.com/unslothai/unsloth/main/install.sh | sh
WindowsはPowerShellで:irm https://raw.githubusercontent.com/unslothai/unsloth/main/install.ps1 | iex
Dockerにも対応しています。初回インストール時はllama.cppのコンパイルで5〜10分かかります。 - Studioを起動
source unsloth_studio/bin/activateの後にunsloth studio -H 0.0.0.0 -p 8888を実行すると、ブラウザでStudioが開きます。 GPUのないMacでも、GGUF推論とData Recipesは使えます。 - モデルを選択
Hugging Faceでモデルを検索するか、ダウンロード済みのGGUF/safetensorsファイルを読み込みます。LM Studioで入手済みのモデルも自動認識されます。 - データを準備する(Data Recipes)
学習させたいドキュメント(PDF、CSVなど)をアップロードすると、ノードベースのエディターでデータセットに変換されます。 合成データの生成も可能です。データなしでそのまま訓練を始めることもできます。 - 訓練を開始
おすすめのプリセットでそのまま始めるか、YAML設定を読み込んで細かく調整することもできます。 訓練中のloss曲線やGPU使用率をリアルタイムで確認しながら — スマートフォンからでも確認できます。 - 書き出し & デプロイ
訓練が終わったら、GGUF、safetensorsなど好みの形式で書き出します。 Ollamaにそのまま上げたり、vLLMサーバーにデプロイしたり、HuggingFace Hubにプッシュするだけで完了です。
GPUがない場合は?
Google Colabの無料T4 GPUでもUnsloth Studioを実行できます。 22BパラメータのモデルまでトレーニングOKです。ただしllama.cppのコンパイルに30分以上かかるので、より大きなGPUを選ぶと快適です。
どんな用途に使える?
ファインチューニングは、汎用AIを「自分の業務専門家」に変える作業です。Unsloth Studioが特に活きるシナリオを紹介します:
- 社内ナレッジチャットボット — 社内文書(PDF、マニュアル)をData Recipesでデータセット化して、社内用語やプロセスを理解するチャットボットを作れます。データが外部に出ないのでセキュリティの心配もありません。
- ドメイン特化型コーディングアシスタント — チームのコードスタイル、使用しているフレームワーク、内部APIドキュメントを学習させて、チーム専用Copilotを作れます。
- 多言語専門翻訳 — 特定分野(法律、医療、ゲーム)の専門用語の翻訳精度を大幅に高められます。
- 推論能力の強化 — GRPOで数学、論理、コーディング問題の解決能力を高めた「ミニDeepSeek-R1」を作れます。
競合ツールとの比較
| Unsloth Studio | LLaMA-Factory | HF AutoTrain | Together AI | |
|---|---|---|---|---|
| タイプ | ローカルWeb UI(オープンソース) | ローカルWeb UI(オープンソース) | クラウドSaaS | クラウドAPI |
| GitHubスター | 53.9K | 68.4K | - | - |
| 訓練速度 | 2〜5倍速い | 標準 | 標準 | 標準 |
| VRAM節約 | 最大70% | 標準 | サーバー処理 | サーバー処理 |
| データセット生成 | Data Recipes(ビジュアル) | 手動 | 一部自動 | 手動 |
| GRPOサポート | 内蔵 | 対応 | 非対応 | 非対応 |
| コスト | 無料 | 無料 | 有料 | 有料 |
| プライバシー | 100%ローカル | 100%ローカル | クラウド | クラウド |
| 弱点 | Macでの訓練は未対応(近日対応予定) | デバッグが難しく、ドキュメントが少ない | カスタマイズが制限される | 継続コスト、ベンダー依存 |
LLaMA-Factoryはモデル互換性では優れていますが、速度とメモリ効率ではUnsloth Studioが圧倒的です。 特にコンシューマー向けGPUで作業する個人開発者や小規模チームにとっては、事実上唯一の選択肢といえます。
注意点
現在はベータ版です。訓練はNVIDIA GPUのみ対応しており、MacではGGUF推論とData Recipesのみ使えます(MLX訓練は近日対応予定)。 AMD・Intel GPUのサポートもロードマップに入っています。また、Studio UIはAGPL-3.0ライセンスのため、内部SaaSとして変形してサービス提供する場合はソースコードの公開義務があります。




