跳到主要内容

评估 LLM 工具

lm-eval-harness:对 LLM 进行基准测试(MMLU、GSM8K 等)。

技能元数据

来源内置(默认安装)
路径skills/mlops/evaluation/lm-evaluation-harness
版本1.0.0
作者Orchestra Research
许可证MIT
依赖项lm-evaltransformersvllm
标签EvaluationLM Evaluation HarnessBenchmarkingMMLUHumanEvalGSM8KEleutherAIModel QualityAcademic BenchmarksIndustry Standard

参考:完整 SKILL.md

信息

以下是 Hermes 在触发此技能时加载的完整技能定义。这是 agent 在技能激活时看到的指令。

lm-evaluation-harness - LLM 基准测试

包含内容

在 60 多个学术基准(MMLU、HumanEval、GSM8K、TruthfulQA、HellaSwag)上评估 LLM。适用于对模型质量进行基准测试、比较模型、报告学术结果或跟踪训练进度。这是 EleutherAI、HuggingFace 及各大实验室使用的行业标准。支持 HuggingFace、vLLM、API。

快速开始

lm-evaluation-harness 使用标准化提示和指标,在 60 多个学术基准上评估 LLM。

安装

pip install lm-eval

评估任意 HuggingFace 模型

lm_eval --model hf \
--model_args pretrained=meta-llama/Llama-2-7b-hf \
--tasks mmlu,gsm8k,hellaswag \
--device cuda:0 \
--batch_size 8

查看可用任务

lm_eval --tasks list

常见工作流

工作流 1:标准基准评估

在核心基准(MMLU、GSM8K、HumanEval)上评估模型。

复制此清单:

基准评估:
- [ ] 步骤 1:选择基准套件
- [ ] 步骤 2:配置模型
- [ ] 步骤 3:运行评估
- [ ] 步骤 4:分析结果

步骤 1:选择基准套件

核心推理基准

  • MMLU(大规模多任务语言理解)——57 个学科,多项选择
  • GSM8K——小学数学应用题
  • HellaSwag——常识推理
  • TruthfulQA——真实性与事实性
  • ARC(AI2 推理挑战)——科学问题

代码基准

  • HumanEval——Python 代码生成(164 个问题)
  • MBPP(基础 Python 问题集)——Python 编程

标准套件(推荐用于模型发布):

--tasks mmlu,gsm8k,hellaswag,truthfulqa,arc_challenge

步骤 2:配置模型

HuggingFace 模型

lm_eval --model hf \
--model_args pretrained=meta-llama/Llama-2-7b-hf,dtype=bfloat16 \
--tasks mmlu \
--device cuda:0 \
--batch_size auto # 自动检测最佳批次大小

量化模型(4 位/8 位)

lm_eval --model hf \
--model_args pretrained=meta-llama/Llama-2-7b-hf,load_in_4bit=True \
--tasks mmlu \
--device cuda:0

自定义检查点

lm_eval --model hf \
--model_args pretrained=/path/to/my-model,tokenizer=/path/to/tokenizer \
--tasks mmlu \
--device cuda:0

步骤 3:运行评估

# Full MMLU evaluation (57 subjects)
lm_eval --model hf \
--model_args pretrained=meta-llama/Llama-2-7b-hf \
--tasks mmlu \
--num_fewshot 5 \ # 5-shot evaluation (standard)
--batch_size 8 \
--output_path results/ \
--log_samples # Save individual predictions

# Multiple benchmarks at once
lm_eval --model hf \
--model_args pretrained=meta-llama/Llama-2-7b-hf \
--tasks mmlu,gsm8k,hellaswag,truthfulqa,arc_challenge \
--num_fewshot 5 \
--batch_size 8 \
--output_path results/llama2-7b-eval.json

步骤 4:分析结果

结果保存在 results/llama2-7b-eval.json

{
"results": {
"mmlu": {
"acc": 0.459,
"acc_stderr": 0.004
},
"gsm8k": {
"exact_match": 0.142,
"exact_match_stderr": 0.006
},
"hellaswag": {
"acc_norm": 0.765,
"acc_norm_stderr": 0.004
}
},
"config": {
"model": "hf",
"model_args": "pretrained=meta-llama/Llama-2-7b-hf",
"num_fewshot": 5
}
}

工作流程 2:追踪训练进度

在训练过程中评估检查点。

训练进度追踪:
- [ ] 步骤 1:设置周期性评估
- [ ] 步骤 2:选择快速基准
- [ ] 步骤 3:自动化评估
- [ ] 步骤 4:绘制学习曲线

步骤 1:设置周期性评估

每 N 个训练步骤评估一次:

#!/bin/bash
# eval_checkpoint.sh

CHECKPOINT_DIR=$1
STEP=$2

lm_eval --model hf \
--model_args pretrained=$CHECKPOINT_DIR/checkpoint-$STEP \
--tasks gsm8k,hellaswag \
--num_fewshot 0 \ # 0-shot for speed
--batch_size 16 \
--output_path results/step-$STEP.json

步骤 2:选择快速基准

适合频繁评估的快速基准:

  • HellaSwag:1 张 GPU 上约 10 分钟
  • GSM8K:约 5 分钟
  • PIQA:约 2 分钟

避免用于频繁评估(太慢):

  • MMLU:约 2 小时(57 个科目)
  • HumanEval:需要执行代码

步骤 3:自动化评估

与训练脚本集成:

# In training loop
if step % eval_interval == 0:
model.save_pretrained(f"checkpoints/step-{step}")

# Run evaluation
os.system(f"./eval_checkpoint.sh checkpoints step-{step}")

或者使用 PyTorch Lightning 回调函数:

from pytorch_lightning import Callback

class EvalHarnessCallback(Callback):
def on_validation_epoch_end(self, trainer, pl_module):
step = trainer.global_step
checkpoint_path = f"checkpoints/step-{step}"

# Save checkpoint
trainer.save_checkpoint(checkpoint_path)

# Run lm-eval
os.system(f"lm_eval --model hf --model_args pretrained={checkpoint_path} ...")

步骤 4:绘制学习曲线

import json
import matplotlib.pyplot as plt

# Load all results
steps = []
mmlu_scores = []

for file in sorted(glob.glob("results/step-*.json")):
with open(file) as f:
data = json.load(f)
step = int(file.split("-")[1].split(".")[0])
steps.append(step)
mmlu_scores.append(data["results"]["mmlu"]["acc"])

# Plot
plt.plot(steps, mmlu_scores)
plt.xlabel("Training Step")
plt.ylabel("MMLU Accuracy")
plt.title("Training Progress")
plt.savefig("training_curve.png")

工作流 3:比较多个模型

用于模型对比的基准测试套件。

模型对比:
- [ ] 步骤 1:定义模型列表
- [ ] 步骤 2:运行评估
- [ ] 步骤 3:生成对比表格

步骤 1:定义模型列表

# models.txt
meta-llama/Llama-2-7b-hf
meta-llama/Llama-2-13b-hf
mistralai/Mistral-7B-v0.1
microsoft/phi-2

步骤 2:运行评估

#!/bin/bash
# eval_all_models.sh

TASKS="mmlu,gsm8k,hellaswag,truthfulqa"

while read model; do
echo "正在评估 $model"

# 提取模型名称用于生成输出文件
model_name=$(echo $model | sed 's/\//-/g')

lm_eval --model hf \
--model_args pretrained=$model,dtype=bfloat16 \
--tasks $TASKS \
--num_fewshot 5 \
--batch_size auto \
--output_path results/$model_name.json

done < models.txt

步骤 3:生成对比表格

import json
import pandas as pd

models = [
"meta-llama-Llama-2-7b-hf",
"meta-llama-Llama-2-13b-hf",
"mistralai-Mistral-7B-v0.1",
"microsoft-phi-2"
]

tasks = ["mmlu", "gsm8k", "hellaswag", "truthfulqa"]

results = []
for model in models:
with open(f"results/{model}.json") as f:
data = json.load(f)
row = {"Model": model.replace("-", "/")}
for task in tasks:
# 获取每个任务的主要指标
metrics = data["results"][task]
if "acc" in metrics:
row[task.upper()] = f"{metrics['acc']:.3f}"
elif "exact_match" in metrics:
row[task.upper()] = f"{metrics['exact_match']:.3f}"
results.append(row)

df = pd.DataFrame(results)
print(df.to_markdown(index=False))

输出结果:

| Model                  | MMLU  | GSM8K | HELLASWAG | TRUTHFULQA |
|------------------------|-------|-------|-----------|------------|
| meta-llama/Llama-2-7b | 0.459 | 0.142 | 0.765 | 0.391 |
| meta-llama/Llama-2-13b | 0.549 | 0.287 | 0.801 | 0.430 |
| mistralai/Mistral-7B | 0.626 | 0.395 | 0.812 | 0.428 |
| microsoft/phi-2 | 0.560 | 0.613 | 0.682 | 0.447 |

工作流 4:使用 vLLM 进行评估(推理速度更快)

使用 vLLM 后端可使评估速度提升 5-10 倍。

vLLM 评估:
- [ ] 步骤 1:安装 vLLM
- [ ] 步骤 2:配置 vLLM 后端
- [ ] 步骤 3:运行评估

步骤 1:安装 vLLM

pip install vllm

步骤 2:配置 vLLM 后端

lm_eval --model vllm \
--model_args pretrained=meta-llama/Llama-2-7b-hf,tensor_parallel_size=1,dtype=auto,gpu_memory_utilization=0.8 \
--tasks mmlu \
--batch_size auto

步骤 3:运行评估

vLLM 比标准 HuggingFace 快 5-10 倍:

# 标准 HF:在 7B 模型上评估 MMLU 约需 2 小时
lm_eval --model hf \
--model_args pretrained=meta-llama/Llama-2-7b-hf \
--tasks mmlu \
--batch_size 8

# vLLM:在 7B 模型上评估 MMLU 约需 15-20 分钟
lm_eval --model vllm \
--model_args pretrained=meta-llama/Llama-2-7b-hf,tensor_parallel_size=2 \
--tasks mmlu \
--batch_size auto

何时使用 vs 替代方案

使用 lm-evaluation-harness 的场景:

  • 为学术论文对模型进行基准测试
  • 跨标准任务比较模型质量
  • 跟踪训练进度
  • 报告标准化指标(所有人都使用相同的提示词)
  • 需要可复现的评估

改用替代方案的场景:

  • HELM(斯坦福):更广泛的评估(公平性、效率、校准)
  • AlpacaEval:使用 LLM 裁判进行指令遵循评估
  • MT-Bench:多轮对话评估
  • 自定义脚本:领域特定评估

常见问题

问题:评估速度太慢

使用 vLLM 后端:

lm_eval --model vllm \
--model_args pretrained=model-name,tensor_parallel_size=2

或者减少 fewshot 示例数量:

--num_fewshot 0  # 替代 5

或者只评估 MMLU 的子集:

--tasks mmlu_stem  # 仅 STEM 科目

问题:内存不足

减小批处理大小:

--batch_size 1  # 或 --batch_size auto

使用量化:

--model_args pretrained=model-name,load_in_8bit=True

启用 CPU 卸载:

--model_args pretrained=model-name,device_map=auto,offload_folder=offload

问题:结果与报告不一致

检查 fewshot 数量:

--num_fewshot 5  # 大多数论文使用 5-shot

检查确切的任务名称:

--tasks mmlu  # 不是 mmlu_direct 或 mmlu_fewshot

确认模型和分词器匹配:

--model_args pretrained=model-name,tokenizer=same-model-name

问题:HumanEval 不执行代码

安装执行依赖:

pip install human-eval

启用代码执行:

lm_eval --model hf \
--model_args pretrained=model-name \
--tasks humaneval \
--allow_code_execution # HumanEval 必需

高级主题

基准测试描述:参见 references/benchmark-guide.md 了解所有 60+ 个任务的详细描述、测量内容及解读。

自定义任务:参见 references/custom-tasks.md 了解如何创建领域特定的评估任务。

API 评估:参见 references/api-evaluation.md 了解如何评估 OpenAI、Anthropic 及其他 API 模型。

多 GPU 策略:参见 references/distributed-eval.md 了解数据并行和张量并行评估。

硬件要求

  • GPU:NVIDIA(CUDA 11.8+),可在 CPU 上运行(非常慢)
  • 显存
    • 7B 模型:16GB(bf16)或 8GB(8-bit)
    • 13B 模型:28GB(bf16)或 14GB(8-bit)
    • 70B 模型:需要多 GPU 或量化
  • 时间(7B 模型,单张 A100):
    • HellaSwag:10 分钟
    • GSM8K:5 分钟
    • MMLU(完整):2 小时
    • HumanEval:20 分钟

资源