跳到主要内容

优化注意力闪存

通过 Flash Attention 优化 Transformer 注意力,实现 2-4 倍加速和 10-20 倍内存减少。适用于训练/运行长序列(>512 token)的 Transformer、遇到注意力相关的 GPU 内存问题,或需要更快推理的场景。支持 PyTorch 原生 SDPA、flash-attn 库、H100 FP8 以及滑动窗口注意力。

技能元数据

来源可选 — 使用 hermes skills install official/mlops/flash-attention 安装
路径optional-skills/mlops/flash-attention
版本1.0.0
作者Orchestra Research
许可证MIT
依赖项flash-attn, torch, transformers
标签优化, Flash Attention, 注意力优化, 内存效率, 速度优化, 长上下文, PyTorch, SDPA, H100, FP8, Transformers

参考:完整 SKILL.md

信息

以下是 Hermes 在触发此技能时加载的完整技能定义。这是 Agent 在技能激活时看到的指令。

Flash Attention - 快速内存高效注意力

快速开始

Flash Attention 通过 IO 感知分块和重计算,为 Transformer 注意力提供 2-4 倍加速和 10-20 倍内存减少。

PyTorch 原生(最简单,PyTorch 2.2+)

import torch
import torch.nn.functional as F

q = torch.randn(2, 8, 512, 64, device='cuda', dtype=torch.float16) # [batch, heads, seq, dim]
k = torch.randn(2, 8, 512, 64, device='cuda', dtype=torch.float16)
v = torch.randn(2, 8, 512, 64, device='cuda', dtype=torch.float16)

# 如果可用,自动使用 Flash Attention
out = F.scaled_dot_product_attention(q, k, v)

flash-attn 库(更多功能)

pip install flash-attn --no-build-isolation
from flash_attn import flash_attn_func

# q, k, v: [batch, seqlen, nheads, headdim]
out = flash_attn_func(q, k, v, dropout_p=0.0, causal=True)

常见工作流

工作流 1:在现有 PyTorch 模型中启用

复制此检查清单:

Flash Attention 集成:
- [ ] 步骤 1:检查 PyTorch 版本(≥2.2)
- [ ] 步骤 2:启用 Flash Attention 后端
- [ ] 步骤 3:通过性能分析验证加速效果
- [ ] 步骤 4:测试精度与基线一致

步骤 1:检查 PyTorch 版本

python -c "import torch; print(torch.__version__)"
# 应 ≥2.2.0

如果 <2.2,升级:

pip install --upgrade torch

步骤 2:启用 Flash Attention 后端

替换标准注意力:

# 之前(标准注意力)
attn_weights = torch.softmax(q @ k.transpose(-2, -1) / math.sqrt(d_k), dim=-1)
out = attn_weights @ v

# 之后(Flash Attention)
import torch.nn.functional as F
out = F.scaled_dot_product_attention(q, k, v, attn_mask=mask)

强制使用 Flash Attention 后端:

with torch.backends.cuda.sdp_kernel(
enable_flash=True,
enable_math=False,
enable_mem_efficient=False
):
out = F.scaled_dot_product_attention(q, k, v)

步骤 3:通过性能分析验证加速效果

import torch.utils.benchmark as benchmark

def test_attention(use_flash):
q, k, v = [torch.randn(2, 8, 2048, 64, device='cuda', dtype=torch.float16) for _ in range(3)]

if use_flash:
with torch.backends.cuda.sdp_kernel(enable_flash=True):
return F.scaled_dot_product_attention(q, k, v)
else:
attn = (q @ k.transpose(-2, -1) / 8.0).softmax(dim=-1)
return attn @ v

# 基准测试
t_flash = benchmark.Timer(stmt='test_attention(True)', globals=globals())
t_standard = benchmark.Timer(stmt='test_attention(False)', globals=globals())

print(f"Flash: {t_flash.timeit(100).mean:.3f}s")
print(f"Standard: {t_standard.timeit(100).mean:.3f}s")

预期:对于长度超过 512 的序列,可获得 2-4 倍加速。

步骤 4:测试精度是否与基线一致

# 比较输出
q, k, v = [torch.randn(1, 8, 512, 64, device='cuda', dtype=torch.float16) for _ in range(3)]

# Flash Attention
out_flash = F.scaled_dot_product_attention(q, k, v)

# 标准注意力
attn_weights = torch.softmax(q @ k.transpose(-2, -1) / 8.0, dim=-1)
out_standard = attn_weights @ v

# 检查差异
diff = (out_flash - out_standard).abs().max()
print(f"最大差异: {diff:.6f}")
# 对于 float16 应小于 1e-3

工作流 2:使用 flash-attn 库实现高级功能

适用于多查询注意力、滑动窗口或 H100 FP8。

复制以下清单:

flash-attn 库设置:
- [ ] 步骤 1:安装 flash-attn 库
- [ ] 步骤 2:修改注意力代码
- [ ] 步骤 3:启用高级功能
- [ ] 步骤 4:基准测试性能

步骤 1:安装 flash-attn 库

# NVIDIA GPU(CUDA 12.0+)
pip install flash-attn --no-build-isolation

# 验证安装
python -c "from flash_attn import flash_attn_func; print('Success')"

步骤 2:修改注意力代码

from flash_attn import flash_attn_func

# 输入:[batch_size, seq_len, num_heads, head_dim]
# 如果需要,从 [batch, heads, seq, dim] 转置
q = q.transpose(1, 2) # [batch, seq, heads, dim]
k = k.transpose(1, 2)
v = v.transpose(1, 2)

out = flash_attn_func(
q, k, v,
dropout_p=0.1,
causal=True, # 用于自回归模型
window_size=(-1, -1), # 无滑动窗口
softmax_scale=None # 自动缩放
)

out = out.transpose(1, 2) # 转回 [batch, heads, seq, dim]

步骤 3:启用高级功能

多查询注意力(跨头共享 K/V):

from flash_attn import flash_attn_func

# q:[batch, seq, num_q_heads, dim]
# k, v:[batch, seq, num_kv_heads, dim] # 更少的 KV 头
out = flash_attn_func(q, k, v) # 自动处理 MQA

滑动窗口注意力(局部注意力):

# 仅关注前后 256 个 token 的窗口
out = flash_attn_func(
q, k, v,
window_size=(256, 256), # (左, 右) 窗口
causal=True
)

步骤 4:基准测试性能

import torch
from flash_attn import flash_attn_func
import time

q, k, v = [torch.randn(4, 4096, 32, 64, device='cuda', dtype=torch.float16) for _ in range(3)]

# 预热
for _ in range(10):
_ = flash_attn_func(q, k, v)

# 基准测试
torch.cuda.synchronize()
start = time.time()
for _ in range(100):
out = flash_attn_func(q, k, v)
torch.cuda.synchronize()
end = time.time()

print(f"每次迭代时间: {(end-start)/100*1000:.2f}ms")
print(f"分配内存: {torch.cuda.max_memory_allocated()/1e9:.2f}GB")

工作流 3:H100 FP8 优化(FlashAttention-3)

适用于在 H100 GPU 上获得最高性能。

FP8 设置:
- [ ] 步骤 1:确认 H100 GPU 可用
- [ ] 步骤 2:安装支持 FP8 的 flash-attn
- [ ] 步骤 3:将输入转换为 FP8
- [ ] 步骤 4:使用 FP8 attention 运行

步骤 1:确认 H100 GPU

nvidia-smi --query-gpu=name --format=csv
# 应显示 "H100" 或 "H800"

步骤 2:安装支持 FP8 的 flash-attn

pip install flash-attn --no-build-isolation
# H100 已包含 FP8 支持

步骤 3:将输入转换为 FP8

import torch

q = torch.randn(2, 4096, 32, 64, device='cuda', dtype=torch.float16)
k = torch.randn(2, 4096, 32, 64, device='cuda', dtype=torch.float16)
v = torch.randn(2, 4096, 32, 64, device='cuda', dtype=torch.float16)

# 转换为 float8_e4m3(FP8)
q_fp8 = q.to(torch.float8_e4m3fn)
k_fp8 = k.to(torch.float8_e4m3fn)
v_fp8 = v.to(torch.float8_e4m3fn)

步骤 4:使用 FP8 attention 运行

from flash_attn import flash_attn_func

# FlashAttention-3 在 H100 上自动使用 FP8 内核
out = flash_attn_func(q_fp8, k_fp8, v_fp8)
# 结果:约 1.2 PFLOPS,比 FP16 快 1.5-2 倍

何时使用 vs 替代方案

使用 Flash Attention 的场景:

  • 训练序列长度 >512 token 的 transformer
  • 运行长上下文(>2K token)推理
  • GPU 内存受限(标准 attention 会 OOM)
  • 需要 2-4 倍加速且不损失精度
  • 使用 PyTorch 2.2+ 或可以安装 flash-attn

改用替代方案的场景:

  • 标准 attention:序列长度 <256 token(额外开销不划算)
  • xFormers:需要更多 attention 变体(不仅追求速度)
  • 内存高效 attention:CPU 推理(Flash Attention 需要 GPU)

常见问题

问题:ImportError: cannot import flash_attn

使用 --no-build-isolation 标志安装:

pip install flash-attn --no-build-isolation

或先安装 CUDA toolkit:

conda install cuda -c nvidia
pip install flash-attn --no-build-isolation

问题:比预期慢(没有加速)

Flash Attention 的加速效果随序列长度增加而提升:

  • <512 token:加速不明显(10-20%)
  • 512-2K token:2-3 倍加速
  • 2K token:3-4 倍加速

请检查序列长度是否足够。

问题:RuntimeError: CUDA error

确认 GPU 支持 Flash Attention:

import torch
print(torch.cuda.get_device_capability())
# 应 ≥(7, 5) 对应 Turing 及以上架构

Flash Attention 要求:

  • Ampere(A100, A10):✅ 完全支持
  • Turing(T4):✅ 支持
  • Volta(V100):❌ 不支持

问题:精度下降

检查 dtype 是否为 float16 或 bfloat16(不是 float32):

q = q.to(torch.float16)  # 或 torch.bfloat16

Flash Attention 使用 float16/bfloat16 以获得速度。不支持 float32。

高级主题

与 HuggingFace Transformers 集成:请参阅 references/transformers-integration.md 了解如何在 BERT、GPT、Llama 模型中启用 Flash Attention。 性能基准测试:请参阅 references/benchmarks.md 了解不同 GPU 和序列长度下的详细速度与内存对比。

算法细节:请参阅 references/algorithm.md 了解分块策略、重计算和 IO 复杂度分析。

高级特性:请参阅 references/advanced-features.md 了解旋转位置编码、ALiBi、分页 KV 缓存和自定义注意力掩码。

硬件要求

  • GPU:NVIDIA Ampere+(A100、A10、A30)或 AMD MI200+
  • 显存:与标准注意力相同(Flash Attention 不会增加内存占用)
  • CUDA:12.0+(最低 11.8)
  • PyTorch:2.2+(原生支持)

不支持:V100(Volta)、CPU 推理

参考资料