跳到主要内容

Peft 微调

使用 LoRA、QLoRA 和 25 种以上方法对 LLM 进行参数高效微调。适用于在 GPU 内存有限的情况下微调大模型(7B-70B)、需要训练不到 1% 的参数且精度损失极小、或进行多适配器服务。HuggingFace 官方库,与 transformers 生态集成。

技能元数据

来源可选 — 使用 hermes skills install official/mlops/peft 安装
路径optional-skills/mlops/peft
版本1.0.0
作者Orchestra Research
许可证MIT
依赖peft>=0.13.0, transformers>=4.45.0, torch>=2.0.0, bitsandbytes>=0.43.0
标签微调, PEFT, LoRA, QLoRA, 参数高效, 适配器, 低秩, 内存优化, 多适配器

参考:完整 SKILL.md

信息

以下是该技能被触发时 Hermes 加载的完整技能定义。这是 agent 在技能激活时看到的指令。

PEFT(参数高效微调)

通过使用 LoRA、QLoRA 和 25 种以上适配器方法训练不到 1% 的参数来微调 LLM。

何时使用 PEFT

在以下情况下使用 PEFT/LoRA:

  • 在消费级 GPU(RTX 4090、A100)上微调 7B-70B 模型
  • 需要训练不到 1% 的参数(6MB 适配器 vs 14GB 完整模型)
  • 希望使用多个任务特定适配器快速迭代
  • 从一个基础模型部署多个微调变体

在以下情况下使用 QLoRA(PEFT + 量化):

  • 在单张 24GB GPU 上微调 70B 模型
  • 内存是主要限制因素
  • 可以接受与全量微调相比约 5% 的质量折衷

在以下情况下使用全量微调:

  • 训练小模型(<1B 参数)
  • 需要最高质量且有计算预算
  • 显著的领域偏移需要更新所有权重

快速开始

安装

# 基础安装
pip install peft

# 带量化支持(推荐)
pip install peft bitsandbytes

# 完整安装
pip install peft transformers accelerate bitsandbytes datasets

LoRA 微调(标准)

from transformers import AutoModelForCausalLM, AutoTokenizer, TrainingArguments, Trainer
from peft import get_peft_model, LoraConfig, TaskType
from datasets import load_dataset

# 加载基础模型
model_name = "meta-llama/Llama-3.1-8B"
model = AutoModelForCausalLM.from_pretrained(model_name, torch_dtype="auto", device_map="auto")
tokenizer = AutoTokenizer.from_pretrained(model_name)
tokenizer.pad_token = tokenizer.eos_token

# LoRA 配置
lora_config = LoraConfig(
task_type=TaskType.CAUSAL_LM,
r=16, # 秩(8-64,越大容量越高)
lora_alpha=32, # 缩放因子(通常为 2*r)
lora_dropout=0.05, # 用于正则化的 Dropout
target_modules=["q_proj", "v_proj", "k_proj", "o_proj"], # 注意力层
bias="none" # 不训练偏置
)

# 应用 LoRA
model = get_peft_model(model, lora_config)
model.print_trainable_parameters()
# 输出:trainable params: 13,631,488 || all params: 8,043,307,008 || trainable%: 0.17%

# 准备数据集
dataset = load_dataset("databricks/databricks-dolly-15k", split="train")

def tokenize(example):
text = f"### Instruction:\n{example['instruction']}\n\n### Response:\n{example['response']}"
return tokenizer(text, truncation=True, max_length=512, padding="max_length")

tokenized = dataset.map(tokenize, remove_columns=dataset.column_names)

# 训练
training_args = TrainingArguments(
output_dir="./lora-llama",
num_train_epochs=3,
per_device_train_batch_size=4,
gradient_accumulation_steps=4,
learning_rate=2e-4,
fp16=True,
logging_steps=10,
save_strategy="epoch"
)

trainer = Trainer(
model=model,
args=training_args,
train_dataset=tokenized,
data_collator=lambda data: {"input_ids": torch.stack([f["input_ids"] for f in data]),
"attention_mask": torch.stack([f["attention_mask"] for f in data]),
"labels": torch.stack([f["input_ids"] for f in data])}
)

trainer.train()

# 仅保存适配器(6MB vs 16GB)
model.save_pretrained("./lora-llama-adapter")

QLoRA 微调(内存高效)

from transformers import AutoModelForCausalLM, BitsAndBytesConfig
from peft import get_peft_model, LoraConfig, prepare_model_for_kbit_training

# 4-bit 量化配置
bnb_config = BitsAndBytesConfig(
load_in_4bit=True,
bnb_4bit_quant_type="nf4", # NormalFloat4(最适合 LLM)
bnb_4bit_compute_dtype="bfloat16", # 使用 bf16 计算
bnb_4bit_use_double_quant=True # 嵌套量化
)

# 加载量化模型
model = AutoModelForCausalLM.from_pretrained(
"meta-llama/Llama-3.1-70B",
quantization_config=bnb_config,
device_map="auto"
)

# 准备训练(启用梯度检查点)
model = prepare_model_for_kbit_training(model)

# QLoRA 的 LoRA 配置
lora_config = LoraConfig(
r=64, # 70B 模型使用更高秩
lora_alpha=128,
lora_dropout=0.1,
target_modules=["q_proj", "v_proj", "k_proj", "o_proj", "gate_proj", "up_proj", "down_proj"],
bias="none",
task_type="CAUSAL_LM"
)

model = get_peft_model(model, lora_config)
# 70B 模型现在可以塞进单张 24GB GPU!

LoRA 参数选择

秩(r)—— 容量与效率的权衡

可训练参数量内存质量适用场景
4~3M极小较低简单任务、原型验证
8~7M良好推荐起点
16~14M中等较好通用微调
32~27M较高复杂任务
64~54M最高领域适配、70B 模型

Alpha(lora_alpha)—— 缩放因子

# 经验法则:alpha = 2 * rank
LoraConfig(r=16, lora_alpha=32) # 标准
LoraConfig(r=16, lora_alpha=16) # 保守(学习率效果较低)
LoraConfig(r=16, lora_alpha=64) # 激进(学习率效果较高)

按架构选择目标模块

# Llama / Mistral / Qwen
target_modules = ["q_proj", "v_proj", "k_proj", "o_proj", "gate_proj", "up_proj", "down_proj"]

# GPT-2 / GPT-Neo
target_modules = ["c_attn", "c_proj", "c_fc"]

# Falcon
target_modules = ["query_key_value", "dense", "dense_h_to_4h", "dense_4h_to_h"]

# BLOOM
target_modules = ["query_key_value", "dense", "dense_h_to_4h", "dense_4h_to_h"]

# 自动检测所有线性层
target_modules = "all-linear" # PEFT 0.6.0+

加载与合并适配器

加载训练好的适配器

from peft import PeftModel, AutoPeftModelForCausalLM
from transformers import AutoModelForCausalLM

# 方式 1:使用 PeftModel 加载
base_model = AutoModelForCausalLM.from_pretrained("meta-llama/Llama-3.1-8B")
model = PeftModel.from_pretrained(base_model, "./lora-llama-adapter")

# 方式 2:直接加载(推荐)
model = AutoPeftModelForCausalLM.from_pretrained(
"./lora-llama-adapter",
device_map="auto"
)

将适配器合并到基模型

# 合并用于部署(无适配器开销)
merged_model = model.merge_and_unload()

# 保存合并后的模型
merged_model.save_pretrained("./llama-merged")
tokenizer.save_pretrained("./llama-merged")

# 推送到 Hub
merged_model.push_to_hub("username/llama-finetuned")

多适配器服务

from peft import PeftModel

# 加载基础模型及第一个适配器
model = AutoPeftModelForCausalLM.from_pretrained("./adapter-task1")

# 加载额外适配器
model.load_adapter("./adapter-task2", adapter_name="task2")
model.load_adapter("./adapter-task3", adapter_name="task3")

# 运行时切换适配器
model.set_adapter("task1") # 使用 task1 适配器
output1 = model.generate(**inputs)

model.set_adapter("task2") # 切换到 task2
output2 = model.generate(**inputs)

# 禁用适配器(使用基础模型)
with model.disable_adapter():
base_output = model.generate(**inputs)

PEFT 方法对比

方法可训练参数占比内存速度最佳适用场景
LoRA0.1-1%通用微调
QLoRA0.1-1%极低中等内存受限场景
AdaLoRA0.1-1%中等自动秩选择
IA30.01%极小最快少样本适配
Prefix Tuning0.1%中等生成控制
Prompt Tuning0.001%极小简单任务适配
P-Tuning v20.1%中等NLU 任务

IA3(极少量参数)

from peft import IA3Config

ia3_config = IA3Config(
target_modules=["q_proj", "v_proj", "k_proj", "down_proj"],
feedforward_modules=["down_proj"]
)
model = get_peft_model(model, ia3_config)
# 仅训练 0.01% 的参数!

Prefix Tuning

from peft import PrefixTuningConfig

prefix_config = PrefixTuningConfig(
task_type="CAUSAL_LM",
num_virtual_tokens=20, # 前置虚拟 token 数量
prefix_projection=True # 使用 MLP 投影
)
model = get_peft_model(model, prefix_config)

集成模式

与 TRL(SFTTrainer)集成

from trl import SFTTrainer, SFTConfig
from peft import LoraConfig

lora_config = LoraConfig(r=16, lora_alpha=32, target_modules="all-linear")

trainer = SFTTrainer(
model=model,
args=SFTConfig(output_dir="./output", max_seq_length=512),
train_dataset=dataset,
peft_config=lora_config, # 直接传入 LoRA 配置
)
trainer.train()

与 Axolotl(YAML 配置)集成

# axolotl config.yaml
adapter: lora
lora_r: 16
lora_alpha: 32
lora_dropout: 0.05
lora_target_modules:
- q_proj
- v_proj
- k_proj
- o_proj
lora_target_linear: true # 目标为所有线性层

与 vLLM(推理)集成

from vllm import LLM
from vllm.lora.request import LoRARequest

# 加载支持 LoRA 的基础模型
llm = LLM(model="meta-llama/Llama-3.1-8B", enable_lora=True)

# 使用适配器提供服务
outputs = llm.generate(
prompts,
lora_request=LoRARequest("adapter1", 1, "./lora-adapter")
)

性能基准

内存使用(Llama 3.1 8B)

方法GPU 内存可训练参数量
全量微调60+ GB8B (100%)
LoRA r=1618 GB14M (0.17%)
QLoRA r=166 GB14M (0.17%)
IA316 GB800K (0.01%)

训练速度(A100 80GB)

方法Tokens/秒对比全量微调
全量微调2,5001x
LoRA3,2001.3x
QLoRA2,1000.84x

质量(MMLU 基准测试)

模型全量微调LoRAQLoRA
Llama 2-7B45.344.844.1
Llama 2-13B54.854.253.5

常见问题

训练时 CUDA 内存不足

# 方案 1:启用梯度检查点
model.gradient_checkpointing_enable()

# 方案 2:减小批次大小 + 增加梯度累积
TrainingArguments(
per_device_train_batch_size=1,
gradient_accumulation_steps=16
)

# 方案 3:使用 QLoRA
from transformers import BitsAndBytesConfig
bnb_config = BitsAndBytesConfig(load_in_4bit=True, bnb_4bit_quant_type="nf4")

Adapter 未生效

# 验证 adapter 是否激活
print(model.active_adapters) # 应显示 adapter 名称

# 检查可训练参数
model.print_trainable_parameters()

# 确保模型处于训练模式
model.train()

质量下降

# 增加秩
LoraConfig(r=32, lora_alpha=64)

# 针对更多模块
target_modules = "all-linear"

# 使用更多训练数据和轮次
TrainingArguments(num_train_epochs=5)

# 降低学习率
TrainingArguments(learning_rate=1e-4)

最佳实践

  1. 从 r=8-16 开始,如果质量不足再增加
  2. 使用 alpha = 2 * rank 作为起点
  3. 针对注意力层 + MLP 层以获得最佳质量/效率
  4. 启用梯度检查点以节省内存
  5. 频繁保存 adapter(文件小,易于回滚)
  6. 在合并前对保留数据进行评估
  7. 在消费级硬件上对 70B+ 模型使用 QLoRA

参考资料

资源