评估 LLM 工具
lm-eval-harness:对 LLM 进行基准测试(MMLU、GSM8K 等)。
技能元数据
| 来源 | 内置(默认安装) |
| 路径 | skills/mlops/evaluation/lm-evaluation-harness |
| 版本 | 1.0.0 |
| 作者 | Orchestra Research |
| 许可证 | MIT |
| 依赖项 | lm-eval、transformers、vllm |
| 标签 | Evaluation、LM Evaluation Harness、Benchmarking、MMLU、HumanEval、GSM8K、EleutherAI、Model Quality、Academic Benchmarks、Industry Standard |
参考:完整 SKILL.md
以下是 Hermes 在触发此技能时加载的完整技能定义。这是 agent 在技能激活时看到的指令。
lm-evaluation-harness - LLM 基准测试
包含内容
在 60 多个学术基准(MMLU、HumanEval、GSM8K、TruthfulQA、HellaSwag)上评估 LLM。适用于对模型质量进行基准测试、比较模型、报告学术结果或跟踪训练进度。这是 EleutherAI、HuggingFace 及各大实验室使用的行业标准。支持 HuggingFace、vLLM、API。
快速开始
lm-evaluation-harness 使用标准化提示和指标,在 60 多个学术基准上评估 LLM。
安装:
pip install lm-eval
评估任意 HuggingFace 模型:
lm_eval --model hf \
--model_args pretrained=meta-llama/Llama-2-7b-hf \
--tasks mmlu,gsm8k,hellaswag \
--device cuda:0 \
--batch_size 8
查看可用任务:
lm_eval --tasks list
常见工作流
工作流 1:标准基准评估
在核心基准(MMLU、GSM8K、HumanEval)上评估模型。
复制此清单:
基准评估:
- [ ] 步骤 1:选择基准套件
- [ ] 步骤 2:配置模型
- [ ] 步骤 3:运行评估
- [ ] 步骤 4:分析结果
步骤 1:选择基准套件
核心推理基准:
- MMLU(大规模多任务语言理解)——57 个学科,多项选择
- GSM8K——小学数学应用题
- HellaSwag——常识推理
- TruthfulQA——真实性与事实性
- ARC(AI2 推理挑战)——科学问题
代码基准:
- HumanEval——Python 代码生成(164 个问题)
- MBPP(基础 Python 问题集)——Python 编程
标准套件(推荐用于模型发布):
--tasks mmlu,gsm8k,hellaswag,truthfulqa,arc_challenge
步骤 2:配置模型
HuggingFace 模型:
lm_eval --model hf \
--model_args pretrained=meta-llama/Llama-2-7b-hf,dtype=bfloat16 \
--tasks mmlu \
--device cuda:0 \
--batch_size auto # 自动检测最佳批次大小
量化模型(4 位/8 位):
lm_eval --model hf \
--model_args pretrained=meta-llama/Llama-2-7b-hf,load_in_4bit=True \
--tasks mmlu \
--device cuda:0
自定义检查点:
lm_eval --model hf \
--model_args pretrained=/path/to/my-model,tokenizer=/path/to/tokenizer \
--tasks mmlu \
--device cuda:0
步骤 3:运行评估
# Full MMLU evaluation (57 subjects)
lm_eval --model hf \
--model_args pretrained=meta-llama/Llama-2-7b-hf \
--tasks mmlu \
--num_fewshot 5 \ # 5-shot evaluation (standard)
--batch_size 8 \
--output_path results/ \
--log_samples # Save individual predictions
# Multiple benchmarks at once
lm_eval --model hf \
--model_args pretrained=meta-llama/Llama-2-7b-hf \
--tasks mmlu,gsm8k,hellaswag,truthfulqa,arc_challenge \
--num_fewshot 5 \
--batch_size 8 \
--output_path results/llama2-7b-eval.json
步骤 4:分析结果
结果保存在 results/llama2-7b-eval.json:
{
"results": {
"mmlu": {
"acc": 0.459,
"acc_stderr": 0.004
},
"gsm8k": {
"exact_match": 0.142,
"exact_match_stderr": 0.006
},
"hellaswag": {
"acc_norm": 0.765,
"acc_norm_stderr": 0.004
}
},
"config": {
"model": "hf",
"model_args": "pretrained=meta-llama/Llama-2-7b-hf",
"num_fewshot": 5
}
}
工作流程 2:追踪训练进度
在训练过程中评估检查点。
训练进度追踪:
- [ ] 步骤 1:设置周期性评估
- [ ] 步骤 2:选择快速基准
- [ ] 步骤 3:自动化评估
- [ ] 步骤 4:绘制学习曲线
步骤 1:设置周期性评估
每 N 个训练步骤评估一次:
#!/bin/bash
# eval_checkpoint.sh
CHECKPOINT_DIR=$1
STEP=$2
lm_eval --model hf \
--model_args pretrained=$CHECKPOINT_DIR/checkpoint-$STEP \
--tasks gsm8k,hellaswag \
--num_fewshot 0 \ # 0-shot for speed
--batch_size 16 \
--output_path results/step-$STEP.json
步骤 2:选择快速基准
适合频繁评估的快速基准:
- HellaSwag:1 张 GPU 上约 10 分钟
- GSM8K:约 5 分钟
- PIQA:约 2 分钟
避免用于频繁评估(太慢):
- MMLU:约 2 小时(57 个科目)
- HumanEval:需要执行代码
步骤 3:自动化评估
与训练脚本集成:
# In training loop
if step % eval_interval == 0:
model.save_pretrained(f"checkpoints/step-{step}")
# Run evaluation
os.system(f"./eval_checkpoint.sh checkpoints step-{step}")
或者使用 PyTorch Lightning 回调函数:
from pytorch_lightning import Callback
class EvalHarnessCallback(Callback):
def on_validation_epoch_end(self, trainer, pl_module):
step = trainer.global_step
checkpoint_path = f"checkpoints/step-{step}"
# Save checkpoint
trainer.save_checkpoint(checkpoint_path)
# Run lm-eval
os.system(f"lm_eval --model hf --model_args pretrained={checkpoint_path} ...")
步骤 4:绘制学习曲线
import json
import matplotlib.pyplot as plt
# Load all results
steps = []
mmlu_scores = []
for file in sorted(glob.glob("results/step-*.json")):
with open(file) as f:
data = json.load(f)
step = int(file.split("-")[1].split(".")[0])
steps.append(step)
mmlu_scores.append(data["results"]["mmlu"]["acc"])
# Plot
plt.plot(steps, mmlu_scores)
plt.xlabel("Training Step")
plt.ylabel("MMLU Accuracy")
plt.title("Training Progress")
plt.savefig("training_curve.png")
工作流 3:比较多个模型
用于模型对比的基准测试套件。
模型对比:
- [ ] 步骤 1:定义模型列表
- [ ] 步骤 2:运行评估
- [ ] 步骤 3:生成对比表格
步骤 1:定义模型列表
# models.txt
meta-llama/Llama-2-7b-hf
meta-llama/Llama-2-13b-hf
mistralai/Mistral-7B-v0.1
microsoft/phi-2
步骤 2:运行评估
#!/bin/bash
# eval_all_models.sh
TASKS="mmlu,gsm8k,hellaswag,truthfulqa"
while read model; do
echo "正在评估 $model"
# 提取模型名称用于生成输出文件
model_name=$(echo $model | sed 's/\//-/g')
lm_eval --model hf \
--model_args pretrained=$model,dtype=bfloat16 \
--tasks $TASKS \
--num_fewshot 5 \
--batch_size auto \
--output_path results/$model_name.json
done < models.txt
步骤 3:生成对比表格
import json
import pandas as pd
models = [
"meta-llama-Llama-2-7b-hf",
"meta-llama-Llama-2-13b-hf",
"mistralai-Mistral-7B-v0.1",
"microsoft-phi-2"
]
tasks = ["mmlu", "gsm8k", "hellaswag", "truthfulqa"]
results = []
for model in models:
with open(f"results/{model}.json") as f:
data = json.load(f)
row = {"Model": model.replace("-", "/")}
for task in tasks:
# 获取每个任务的主要指标
metrics = data["results"][task]
if "acc" in metrics:
row[task.upper()] = f"{metrics['acc']:.3f}"
elif "exact_match" in metrics:
row[task.upper()] = f"{metrics['exact_match']:.3f}"
results.append(row)
df = pd.DataFrame(results)
print(df.to_markdown(index=False))
输出结果:
| Model | MMLU | GSM8K | HELLASWAG | TRUTHFULQA |
|------------------------|-------|-------|-----------|------------|
| meta-llama/Llama-2-7b | 0.459 | 0.142 | 0.765 | 0.391 |
| meta-llama/Llama-2-13b | 0.549 | 0.287 | 0.801 | 0.430 |
| mistralai/Mistral-7B | 0.626 | 0.395 | 0.812 | 0.428 |
| microsoft/phi-2 | 0.560 | 0.613 | 0.682 | 0.447 |
工作流 4:使用 vLLM 进行评估(推理速度更快)
使用 vLLM 后端可使评估速度提升 5-10 倍。
vLLM 评估:
- [ ] 步骤 1:安装 vLLM
- [ ] 步骤 2:配置 vLLM 后端
- [ ] 步骤 3:运行评估
步骤 1:安装 vLLM
pip install vllm
步骤 2:配置 vLLM 后端
lm_eval --model vllm \
--model_args pretrained=meta-llama/Llama-2-7b-hf,tensor_parallel_size=1,dtype=auto,gpu_memory_utilization=0.8 \
--tasks mmlu \
--batch_size auto
步骤 3:运行评估
vLLM 比标准 HuggingFace 快 5-10 倍:
# 标准 HF:在 7B 模型上评估 MMLU 约需 2 小时
lm_eval --model hf \
--model_args pretrained=meta-llama/Llama-2-7b-hf \
--tasks mmlu \
--batch_size 8
# vLLM:在 7B 模型上评估 MMLU 约需 15-20 分钟
lm_eval --model vllm \
--model_args pretrained=meta-llama/Llama-2-7b-hf,tensor_parallel_size=2 \
--tasks mmlu \
--batch_size auto
何时使用 vs 替代方案
使用 lm-evaluation-harness 的场景:
- 为学术论文对模型进行基准测试
- 跨标准任务比较模型质量
- 跟踪训练进度
- 报告标准化指标(所有人都使用相同的提示词)
- 需要可复现的评估
改用替代方案的场景:
- HELM(斯坦福):更广泛的评估(公平性、效率、校准)
- AlpacaEval:使用 LLM 裁判进行指令遵循评估
- MT-Bench:多轮对话评估
- 自定义脚本:领域特定评估
常见问题
问题:评估速度太慢
使用 vLLM 后端:
lm_eval --model vllm \
--model_args pretrained=model-name,tensor_parallel_size=2
或者减少 fewshot 示例数量:
--num_fewshot 0 # 替代 5
或者只评估 MMLU 的子集:
--tasks mmlu_stem # 仅 STEM 科目
问题:内存不足
减小批处理大小:
--batch_size 1 # 或 --batch_size auto
使用量化:
--model_args pretrained=model-name,load_in_8bit=True
启用 CPU 卸载:
--model_args pretrained=model-name,device_map=auto,offload_folder=offload
问题:结果与报告不一致
检查 fewshot 数量:
--num_fewshot 5 # 大多数论文使用 5-shot
检查确切的任务名称:
--tasks mmlu # 不是 mmlu_direct 或 mmlu_fewshot
确认模型和分词器匹配:
--model_args pretrained=model-name,tokenizer=same-model-name
问题:HumanEval 不执行代码
安装执行依赖:
pip install human-eval
启用代码执行:
lm_eval --model hf \
--model_args pretrained=model-name \
--tasks humaneval \
--allow_code_execution # HumanEval 必需
高级主题
基准测试描述:参见 references/benchmark-guide.md 了解所有 60+ 个任务的详细描述、测量内容及解读。
自定义任务:参见 references/custom-tasks.md 了解如何创建领域特定的评估任务。
API 评估:参见 references/api-evaluation.md 了解如何评估 OpenAI、Anthropic 及其他 API 模型。
多 GPU 策略:参见 references/distributed-eval.md 了解数据并行和张量并行评估。
硬件要求
- GPU:NVIDIA(CUDA 11.8+),可在 CPU 上运行(非常慢)
- 显存:
- 7B 模型:16GB(bf16)或 8GB(8-bit)
- 13B 模型:28GB(bf16)或 14GB(8-bit)
- 70B 模型:需要多 GPU 或量化
- 时间(7B 模型,单张 A100):
- HellaSwag:10 分钟
- GSM8K:5 分钟
- MMLU(完整):2 小时
- HumanEval:20 分钟
资源
- GitHub: https://github.com/EleutherAI/lm-evaluation-harness
- 文档: https://github.com/EleutherAI/lm-evaluation-harness/tree/main/docs
- 任务库:60+ 个任务,包括 MMLU、GSM8K、HumanEval、TruthfulQA、HellaSwag、ARC、WinoGrande 等。
- 排行榜:https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard(使用本测试框架)