使用 TRL 进行微调
TRL:SFT、DPO、PPO、GRPO、用于 LLM RLHF 的奖励建模。
技能元数据
| 来源 | 内置(默认安装) |
| 路径 | skills/mlops/training/trl-fine-tuning |
| 版本 | 1.0.0 |
| 作者 | Orchestra Research |
| 许可证 | MIT |
| 依赖项 | trl、transformers、datasets、peft、accelerate、torch |
| 标签 | Post-Training、TRL、Reinforcement Learning、Fine-Tuning、SFT、DPO、PPO、GRPO、RLHF、Preference Alignment、HuggingFace |
参考:完整 SKILL.md
以下是 Hermes 在触发此技能时加载的完整技能定义。这是 Agent 在技能激活时看到的指令。
TRL - Transformer Reinforcement Learning
快速开始
TRL 提供了用于将语言模型与人类偏好对齐的后训练方法。
安装:
pip install trl transformers datasets peft accelerate
监督微调(指令微调):
from trl import SFTTrainer
trainer = SFTTrainer(
model="Qwen/Qwen2.5-0.5B",
train_dataset=dataset, # Prompt-completion pairs
)
trainer.train()
DPO(与偏好对齐):
from trl import DPOTrainer, DPOConfig
config = DPOConfig(output_dir="model-dpo", beta=0.1)
trainer = DPOTrainer(
model=model,
args=config,
train_dataset=preference_dataset, # chosen/rejected pairs
processing_class=tokenizer
)
trainer.train()
常见工作流
工作流 1:完整 RLHF 流水线(SFT → 奖励模型 → PPO)
从基础模型到人类对齐模型的完整流水线。
复制此清单:
RLHF 训练:
- [ ] 步骤 1:监督微调(SFT)
- [ ] 步骤 2:训练奖励模型
- [ ] 步骤 3:PPO 强化学习
- [ ] 步骤 4:评估对齐后的模型
步骤 1:监督微调
在指令遵循数据上训练基础模型:
from transformers import AutoModelForCausalLM, AutoTokenizer
from trl import SFTTrainer, SFTConfig
from datasets import load_dataset
# Load model
model = AutoModelForCausalLM.from_pretrained("Qwen/Qwen2.5-0.5B")
tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen2.5-0.5B")
# Load instruction dataset
dataset = load_dataset("trl-lib/Capybara", split="train")
# Configure training
training_args = SFTConfig(
output_dir="Qwen2.5-0.5B-SFT",
per_device_train_batch_size=4,
num_train_epochs=1,
learning_rate=2e-5,
logging_steps=10,
save_strategy="epoch"
)
# Train
trainer = SFTTrainer(
model=model,
args=training_args,
train_dataset=dataset,
tokenizer=tokenizer
)
trainer.train()
trainer.save_model()
步骤 2:训练奖励模型
训练模型以预测人类偏好:
from transformers import AutoModelForSequenceClassification
from trl import RewardTrainer, RewardConfig
# Load SFT model as base
model = AutoModelForSequenceClassification.from_pretrained(
"Qwen2.5-0.5B-SFT",
num_labels=1 # Single reward score
)
tokenizer = AutoTokenizer.from_pretrained("Qwen2.5-0.5B-SFT")
# Load preference data (chosen/rejected pairs)
dataset = load_dataset("trl-lib/ultrafeedback_binarized", split="train")
# Configure training
training_args = RewardConfig(
output_dir="Qwen2.5-0.5B-Reward",
per_device_train_batch_size=2,
num_train_epochs=1,
learning_rate=1e-5
)
# Train reward model
trainer = RewardTrainer(
model=model,
args=training_args,
processing_class=tokenizer,
train_dataset=dataset
)
trainer.train()
trainer.save_model()
步骤 3:PPO 强化学习
使用奖励模型优化策略:
python -m trl.scripts.ppo \
--model_name_or_path Qwen2.5-0.5B-SFT \
--reward_model_path Qwen2.5-0.5B-Reward \
--dataset_name trl-internal-testing/descriptiveness-sentiment-trl-style \
--output_dir Qwen2.5-0.5B-PPO \
--learning_rate 3e-6 \
--per_device_train_batch_size 64 \
--total_episodes 10000
步骤 4:评估
from transformers import pipeline
# 加载对齐后的模型
generator = pipeline("text-generation", model="Qwen2.5-0.5B-PPO")
# 测试
prompt = "向一个10岁孩子解释量子计算"
output = generator(prompt, max_length=200)[0]["generated_text"]
print(output)
工作流 2:使用 DPO 进行简单偏好对齐
无需奖励模型即可对齐模型偏好。
复制此清单:
DPO 训练:
- [ ] 步骤 1:准备偏好数据集
- [ ] 步骤 2:配置 DPO
- [ ] 步骤 3:使用 DPOTrainer 训练
- [ ] 步骤 4:评估对齐效果
步骤 1:准备偏好数据集
数据集格式:
{
"prompt": "法国的首都是哪里?",
"chosen": "法国的首都是巴黎。",
"rejected": "我不知道。"
}
加载数据集:
from datasets import load_dataset
dataset = load_dataset("trl-lib/ultrafeedback_binarized", split="train")
# 或者加载你自己的数据集
# dataset = load_dataset("json", data_files="preferences.json")
步骤 2:配置 DPO
from trl import DPOConfig
config = DPOConfig(
output_dir="Qwen2.5-0.5B-DPO",
per_device_train_batch_size=4,
num_train_epochs=1,
learning_rate=5e-7,
beta=0.1, # KL 惩罚强度
max_prompt_length=512,
max_length=1024,
logging_steps=10
)
步骤 3:使用 DPOTrainer 训练
from transformers import AutoModelForCausalLM, AutoTokenizer
from trl import DPOTrainer
model = AutoModelForCausalLM.from_pretrained("Qwen/Qwen2.5-0.5B-Instruct")
tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen2.5-0.5B-Instruct")
trainer = DPOTrainer(
model=model,
args=config,
train_dataset=dataset,
processing_class=tokenizer
)
trainer.train()
trainer.save_model()
CLI 替代方案:
trl dpo \
--model_name_or_path Qwen/Qwen2.5-0.5B-Instruct \
--dataset_name argilla/Capybara-Preferences \
--output_dir Qwen2.5-0.5B-DPO \
--per_device_train_batch_size 4 \
--learning_rate 5e-7 \
--beta 0.1
工作流 3:使用 GRPO 进行内存高效的在线强化学习
使用最小内存进行强化学习训练。
关于 GRPO 的深入指导——奖励函数设计、关键训练洞察(损失行为、模式崩溃、调优)以及高级多阶段模式——请参阅 references/grpo-training.md。一个可用于生产环境的训练脚本位于 templates/basic_grpo_training.py。 复制此清单:
GRPO 训练:
- [ ] 步骤 1:定义奖励函数
- [ ] 步骤 2:配置 GRPO
- [ ] 步骤 3:使用 GRPOTrainer 训练
步骤 1:定义奖励函数
def reward_function(completions, **kwargs):
"""
计算生成结果的奖励。
参数:
completions: 生成的文本列表
返回:
奖励分数列表(浮点数)
"""
rewards = []
for completion in completions:
# 示例:基于长度和唯一词数计算奖励
score = len(completion.split()) # 鼓励更长的回复
score += len(set(completion.lower().split())) # 奖励独特词汇
rewards.append(score)
return rewards
或者使用奖励模型:
from transformers import pipeline
reward_model = pipeline("text-classification", model="reward-model-path")
def reward_from_model(completions, prompts, **kwargs):
# 拼接提示 + 生成结果
full_texts = [p + c for p, c in zip(prompts, completions)]
# 获取奖励分数
results = reward_model(full_texts)
return [r["score"] for r in results]
步骤 2:配置 GRPO
from trl import GRPOConfig
config = GRPOConfig(
output_dir="Qwen2-GRPO",
per_device_train_batch_size=4,
num_train_epochs=1,
learning_rate=1e-5,
num_generations=4, # 每个提示生成 4 个结果
max_new_tokens=128
)
步骤 3:使用 GRPOTrainer 训练
from datasets import load_dataset
from trl import GRPOTrainer
# 加载仅含提示的数据集
dataset = load_dataset("trl-lib/tldr", split="train")
trainer = GRPOTrainer(
model="Qwen/Qwen2-0.5B-Instruct",
reward_funcs=reward_function, # 你的奖励函数
args=config,
train_dataset=dataset
)
trainer.train()
CLI:
trl grpo \
--model_name_or_path Qwen/Qwen2-0.5B-Instruct \
--dataset_name trl-lib/tldr \
--output_dir Qwen2-GRPO \
--num_generations 4
何时使用 vs 替代方案
使用 TRL 的场景:
- 需要让模型对齐人类偏好
- 拥有偏好数据(选择/拒绝对)
- 想使用强化学习(PPO、GRPO)
- 需要训练奖励模型
- 进行 RLHF(完整流程)
方法选择:
- SFT:有提示-生成结果对,想要基本的指令跟随能力
- DPO:有偏好数据,想要简单的对齐(无需奖励模型)
- PPO:有奖励模型,需要对 RL 进行最大控制
- GRPO:内存受限,想要在线 RL
- 奖励模型:构建 RLHF 流程,需要对生成结果评分
改用替代方案:
- HuggingFace Trainer:无 RL 的基础微调
- Axolotl:基于 YAML 的训练配置
- LitGPT:教学用途,最小化微调
- Unsloth:快速 LoRA 训练
常见问题
问题:DPO 训练时 OOM
减小批次大小和序列长度:
config = DPOConfig(
per_device_train_batch_size=1, # 从 4 减小
max_length=512, # 从 1024 减小
gradient_accumulation_steps=8 # 保持有效批次大小
)
或者使用梯度检查点:
model.gradient_checkpointing_enable()
问题:对齐质量差
调整 beta 参数:
# Higher beta = more conservative (stays closer to reference)
config = DPOConfig(beta=0.5) # Default 0.1
# Lower beta = more aggressive alignment
config = DPOConfig(beta=0.01)
问题:奖励模型不学习
检查损失类型和学习率:
config = RewardConfig(
learning_rate=1e-5, # Try different LR
num_train_epochs=3 # Train longer
)
确保偏好数据集中有明确的胜者:
# Verify dataset
print(dataset[0])
# Should have clear chosen > rejected
问题:PPO 训练不稳定
调整 KL 系数:
config = PPOConfig(
kl_coef=0.1, # Increase from 0.05
cliprange=0.1 # Reduce from 0.2
)
高级主题
SFT 训练指南:参见 references/sft-training.md 了解数据集格式、聊天模板、打包策略和多 GPU 训练。
DPO 变体:参见 references/dpo-variants.md 了解 IPO、cDPO、RPO 及其他 DPO 损失函数及推荐超参数。
奖励建模:参见 references/reward-modeling.md 了解结果奖励与过程奖励、Bradley-Terry 损失以及奖励模型评估。
在线 RL 方法:参见 references/online-rl.md 了解 PPO、GRPO、RLOO 和 OnlineDPO 的详细配置。
GRPO 深入解析:参见 references/grpo-training.md 了解专家级 GRPO 模式——奖励函数设计理念、训练洞察(损失为何增加、模式崩溃检测)、超参数调优、多阶段训练和故障排除。生产就绪模板见 templates/basic_grpo_training.py。
硬件要求
- GPU:NVIDIA(需要 CUDA)
- 显存:取决于模型和方法
- SFT 7B:16GB(使用 LoRA)
- DPO 7B:24GB(存储参考模型)
- PPO 7B:40GB(策略 + 奖励模型)
- GRPO 7B:24GB(更省显存)
- 多 GPU:通过
accelerate支持 - 混合精度:推荐 BF16(A100/H100)
显存优化:
- 所有方法均使用 LoRA/QLoRA
- 启用梯度检查点
- 使用更小的批次大小配合梯度累积
资源
- 文档:https://huggingface.co/docs/trl/
- GitHub:https://github.com/huggingface/trl
- 论文:
- "Training language models to follow instructions with human feedback"(InstructGPT,2022)
- "Direct Preference Optimization: Your Language Model is Secretly a Reward Model"(DPO,2023)
- "Group Relative Policy Optimization"(GRPO,2024)
- 示例:https://github.com/huggingface/trl/tree/main/examples/scripts