一提到 LLM 微调,脑海里总会浮现那些画面:在终端里折腾 CUDA 环境、为了对齐数据集格式反复踩坑,最后还是被 GPU 显存不足的 OOM 错误击败。如果整个过程可以从头到尾在浏览器里完成,还不用写一行代码,你会心动吗?

3秒速览
一行命令安装 Unsloth Studio 用 PDF、CSV 自动生成数据集 500+ 模型零代码训练 GGUF/Ollama 一键导出 专属领域 AI 到手

这是什么?

Unsloth Studio 是 2026 年 3 月 17 日发布的开源零代码 Web UI,把 LLM 的训练、运行、导出全流程整合到一个本地界面里。 Unsloth 这个名字你可能听过 — 它是 GitHub 上拿到 53,900+ Star 的开源微调库,这次他们给它加上了 Web UI。

核心很简单:让不懂代码的人也能做微调。数据准备、训练、实时监控、模型对比、导出 — 全在浏览器里完成。而且 100% 本地运行,数据不会流到外部,安全这一关也通过了。

支持的模型超过 500 个。Qwen 3.5、DeepSeek-R1、Llama 4、NVIDIA Nemotron 3 这些最新模型自不必说,还覆盖文本、视觉、TTS、音频、嵌入等各类模型。

2倍
更快的训练速度
70%
显存节省
500+
支持模型数量
$0
使用费用

有什么不同?

过去做 LLM 微调,选择大致分三类:要么自己写代码,要么花钱上云平台,要么直接放弃。Unsloth Studio 开辟了第四条路。

手动微调(代码)云平台Unsloth Studio
是否需要写代码必须懂 Python、CUDA少量(API 级别)不需要(零代码)
费用只需 GPU 硬件按小时计费($2~10/hr)完全免费
数据隐私本地保存传到外部服务器100% 本地
训练速度标准(1x)标准(1x)快 2~5 倍
显存占用标准服务器处理节省 70%
数据集准备手动编码部分自动化上传 PDF 即可自动生成
导出手动转换平台绑定GGUF、Ollama、vLLM 一键导出

秘密藏在 Unsloth 手写的 Triton 内核(Triton kernel)里。 他们没有直接用 PyTorch 的通用 CUDA 内核,而是针对 LLM 架构,用 Triton 重新实现了优化过的反向传播运算。这样做在精度不受损的前提下,同时实现了 2 倍速度和 70% 显存节省。

换算成实际数字大概是这样:一张 RTX 4090 就能微调 8B 参数的模型。原本这种任务需要多卡 GPU 集群。在 MoE(Mixture-of-Experts,混合专家)架构上甚至能快到 12 倍。

"几乎所有 Fortune 500 企业都在使用 Unsloth,它是独立 LLM 部署平台中排名第四的。"

— Daniel Han,Unsloth 创始人,Hacker News 评论

核心功能:原来这也能做?

Data Recipes — 上传 PDF,数据集自动出炉

其实微调最大的坑就是数据集准备。Unsloth Studio 的 Data Recipes 用可视化节点工作流解决了这个问题。 上传 PDF、CSV、DOCX、JSON 文件后,它会借助 NVIDIA 的 DataDesigner 技术,自动把内容转换成训练用数据集。不管是 ChatML 还是 Alpaca,格式它都会自动匹配。

GRPO — 推理能力强化学习

不仅仅是常见的 SFT(Supervised Fine-Tuning,监督微调)。打造出 DeepSeek-R1 推理能力的核心技术 GRPO(Group Relative Policy Optimization,组相对策略优化)也内置其中。 传统的 PPO 需要额外的 Critic 模型,显存翻倍占用,而 GRPO 以组为单位计算奖励,消费级 GPU 也能跑得动。

Model Arena — 训练前后对比

你可以把基础模型和微调后的模型并排放在一起,分别对话测试。 训练的效果一眼就能看清。

一键导出

训练完成后,可以直接导出 GGUF(供 llama.cpp、Ollama、LM Studio 使用)、safetensors(供 HuggingFace、vLLM 使用)等格式。 LoRA 适配器合并、格式转换,全都自动完成。

上手指南

  1. 一行命令安装
    Mac/Linux/WSL 只需在终端输入一行:
    curl -fsSL https://raw.githubusercontent.com/unslothai/unsloth/main/install.sh | sh
    Windows 用 PowerShell:
    irm https://raw.githubusercontent.com/unslothai/unsloth/main/install.ps1 | iex
    也支持 Docker。首次安装会编译 llama.cpp,大概需要 5~10 分钟。
  2. 启动 Studio
    执行 source unsloth_studio/bin/activate,再运行 unsloth studio -H 0.0.0.0 -p 8888,Studio 就会在浏览器里打开。 即使是没有 GPU 的 Mac,也可以使用 GGUF 推理和 Data Recipes。
  3. 选择模型
    可以在 Hugging Face 里搜索模型,也可以加载本地已下载的 GGUF/safetensors 文件。LM Studio 里下载的模型也会自动识别。
  4. 准备数据(Data Recipes)
    上传想要训练的文档(PDF、CSV 等),就能在节点式编辑器里把它转成数据集。 也支持合成数据生成。如果不准备数据直接开训也没问题。
  5. 开始训练
    可以选用推荐预设直接开训,也可以加载 YAML 配置做精细调节。 训练过程中 loss 曲线和 GPU 使用率都能实时看到 — 在手机上也能查看。
  6. 导出 & 部署
    训练结束后,可以导出为 GGUF、safetensors 等你想要的格式。 直接推到 Ollama、部署到 vLLM 服务器,或者推送到 HuggingFace Hub,都是几步就能搞定。

没有 GPU 怎么办?

Google Colab 的免费 T4 GPU 上也能跑 Unsloth Studio。 22B 参数以内的模型都能训练。只是 llama.cpp 编译需要 30 分钟以上,如果有条件,挑一块更大的 GPU 会更顺手。

可以用来做什么?

微调说到底就是把通用 AI 变成"你业务的专家"。下面这些场景,Unsloth Studio 会格外出彩:

  • 企业内部知识库聊天机器人 — 把公司的文档(PDF、手册)通过 Data Recipes 做成数据集,就能训练出懂公司术语和流程的聊天机器人。因为数据不出门,完全不用担心安全问题。
  • 领域专属编程助手 — 让它学习你们团队的代码风格、使用的框架、内部 API 文档,就能做出团队专属的 Copilot。
  • 多语种专业翻译 — 在法律、医疗、游戏等特定领域,专业术语的翻译品质会有质的飞跃。
  • 推理能力强化 — 用 GRPO 强化数学、逻辑、编程题的解题能力,打造属于你的"迷你 DeepSeek-R1"。

与竞品工具对比

Unsloth StudioLLaMA-FactoryHF AutoTrainTogether AI
类型本地 Web UI(开源)本地 Web UI(开源)云端 SaaS云端 API
GitHub Star53.9K68.4K--
训练速度快 2~5 倍标准标准标准
显存节省最多 70%标准服务器处理服务器处理
数据集生成Data Recipes(可视化)手动部分自动手动
GRPO 支持内置支持不支持不支持
费用免费免费收费收费
隐私100% 本地100% 本地云端云端
短板Mac 暂不支持训练(即将支持)调试难、文档不足定制化受限持续付费、厂商绑定

LLaMA-Factory 在模型兼容性上更胜一筹,但在速度和内存效率上,Unsloth Studio 的优势是碾压级的。 对于用消费级 GPU 的个人开发者或小团队来说,它几乎是唯一的选择。

注意

目前还是 Beta 版本。训练仅支持 NVIDIA GPU,Mac 上只能做推理和 Data Recipes(MLX 训练即将支持)。 AMD、Intel GPU 支持也在路线图中。此外,Studio UI 采用 AGPL-3.0 协议,若要改造成内部 SaaS 服务对外提供,需要履行源码公开义务。