Huggingface Tokenizers
为研究和生产优化的快速分词器。基于 Rust 的实现可在 <20 秒内完成 1GB 文本的分词。支持 BPE、WordPiece 和 Unigram 算法。可训练自定义词表、跟踪对齐、处理填充/截断。与 transformers 无缝集成。当需要高性能分词或自定义分词器训练时使用。
技能元数据
| 来源 | 可选 — 通过 hermes skills install official/mlops/huggingface-tokenizers 安装 |
| 路径 | optional-skills/mlops/huggingface-tokenizers |
| 版本 | 1.0.0 |
| 作者 | Orchestra Research |
| 许可证 | MIT |
| 依赖 | tokenizers, transformers, datasets |
| 标签 | Tokenization, HuggingFace, BPE, WordPiece, Unigram, Fast Tokenization, Rust, Custom Tokenizer, Alignment Tracking, Production |
参考:完整 SKILL.md
以下是 Hermes 在触发此技能时加载的完整技能定义。这是 Agent 在技能激活时看到的指令。
HuggingFace Tokenizers - 面向 NLP 的快速分词
兼具 Rust 性能与 Python 易用性的、生产就绪的快速分词器。
何时使用 HuggingFace Tokenizers
在以下场景使用 HuggingFace Tokenizers:
- 需要极快的分词速度(每 GB 文本 <20 秒)
- 从头训练自定义分词器
- 需要对齐跟踪(token → 原始文本位置)
- 构建生产级 NLP 流水线
- 需要高效地对大型语料库进行分词
性能:
- 速度:在 CPU 上每 GB 文本分词时间 <20 秒
- 实现:Rust 核心 + Python/Node.js 绑定
- 效率:比纯 Python 实现快 10–100 倍
使用替代方案:
- SentencePiece:语言无关,被 T5/ALBERT 使用
- tiktoken:OpenAI 的 BPE 分词器,用于 GPT 模型
- transformers AutoTokenizer:仅加载预训练模型(内部使用本库)
快速开始
安装
# 安装 tokenizers
pip install tokenizers
# 集成 transformers
pip install tokenizers transformers
加载预训练分词器
from tokenizers import Tokenizer
# 从 HuggingFace Hub 加载
tokenizer = Tokenizer.from_pretrained("bert-base-uncased")
# 编码文本
output = tokenizer.encode("Hello, how are you?")
print(output.tokens) # ['hello', ',', 'how', 'are', 'you', '?']
print(output.ids) # [7592, 1010, 2129, 2024, 2017, 1029]
# 解码
text = tokenizer.decode(output.ids)
print(text) # "hello, how are you?"
训练自定义 BPE 分词器
from tokenizers import Tokenizer
from tokenizers.models import BPE
from tokenizers.trainers import BpeTrainer
from tokenizers.pre_tokenizers import Whitespace
# 使用 BPE 模型初始化分词器
tokenizer = Tokenizer(BPE(unk_token="[UNK]"))
tokenizer.pre_tokenizer = Whitespace()
# 配置训练器
trainer = BpeTrainer(
vocab_size=30000,
special_tokens=["[UNK]", "[CLS]", "[SEP]", "[PAD]", "[MASK]"],
min_frequency=2
)
# 在文件上训练
files = ["train.txt", "validation.txt"]
tokenizer.train(files, trainer)
# 保存
tokenizer.save("my-tokenizer.json")
训练时间:100MB 语料约 1-2 分钟,1GB 语料约 10-20 分钟
带填充的批量编码
# 启用填充
tokenizer.enable_padding(pad_id=3, pad_token="[PAD]")
# 批量编码
texts = ["Hello world", "This is a longer sentence"]
encodings = tokenizer.encode_batch(texts)
for encoding in encodings:
print(encoding.ids)
# [101, 7592, 2088, 102, 3, 3, 3]
# [101, 2023, 2003, 1037, 2936, 6251, 102]
分词算法
BPE(字节对编码)
工作原理:
- 从字符级词表开始
- 找出最频繁的字符对
- 合并为新 token,加入词表
- 重复直到达到词表大小
使用模型:GPT-2、GPT-3、RoBERTa、BART、DeBERTa
from tokenizers import Tokenizer
from tokenizers.models import BPE
from tokenizers.trainers import BpeTrainer
from tokenizers.pre_tokenizers import ByteLevel
tokenizer = Tokenizer(BPE(unk_token="<|endoftext|>"))
tokenizer.pre_tokenizer = ByteLevel()
trainer = BpeTrainer(
vocab_size=50257,
special_tokens=["<|endoftext|>"],
min_frequency=2
)
tokenizer.train(files=["data.txt"], trainer=trainer)
优点:
- 能很好地处理 OOV 词(拆分为子词)
- 词表大小灵活
- 对形态丰富的语言友好
权衡:
- 分词结果依赖合并顺序
- 可能意外拆分常见词
WordPiece
工作原理:
- 从字符级词表开始
- 对合并对打分:
frequency(pair) / (frequency(first) × frequency(second)) - 合并得分最高的对
- 重复直到达到词表大小
使用模型:BERT、DistilBERT、MobileBERT
from tokenizers import Tokenizer
from tokenizers.models import WordPiece
from tokenizers.trainers import WordPieceTrainer
from tokenizers.pre_tokenizers import Whitespace
from tokenizers.normalizers import BertNormalizer
tokenizer = Tokenizer(WordPiece(unk_token="[UNK]"))
tokenizer.normalizer = BertNormalizer(lowercase=True)
tokenizer.pre_tokenizer = Whitespace()
trainer = WordPieceTrainer(
vocab_size=30522,
special_tokens=["[UNK]", "[CLS]", "[SEP]", "[PAD]", "[MASK]"],
continuing_subword_prefix="##"
)
tokenizer.train(files=["corpus.txt"], trainer=trainer)
优点:
- 优先进行有意义的合并(高分 = 语义相关)
- 在 BERT 中成功使用(达到最先进结果)
权衡:
- 如果找不到子词匹配,未知词会变成
[UNK] - 只保存词表,不保存合并规则(文件更大)
Unigram
工作原理:
- 从大词表开始(所有子串)
- 用当前词表计算语料损失
- 移除对损失影响最小的 token
- 重复直到达到词表大小
使用模型:ALBERT、T5、mBART、XLNet(通过 SentencePiece)
from tokenizers import Tokenizer
from tokenizers.models import Unigram
from tokenizers.trainers import UnigramTrainer
tokenizer = Tokenizer(Unigram())
trainer = UnigramTrainer(
vocab_size=8000,
special_tokens=["<unk>", "<s>", "</s>"],
unk_token="<unk>"
)
tokenizer.train(files=["data.txt"], trainer=trainer)
优势:
- 概率性(找到最可能的 tokenization)
- 对无词边界的语言效果良好
- 处理多样化的语言上下文
权衡:
- 训练计算成本高
- 需要调节更多超参数
Tokenization 流水线
完整流水线:Normalization → Pre-tokenization → Model → Post-processing
Normalization
清洗并标准化文本:
from tokenizers.normalizers import NFD, StripAccents, Lowercase, Sequence
tokenizer.normalizer = Sequence([
NFD(), # Unicode 标准化(分解)
Lowercase(), # 转换为小写
StripAccents() # 去除重音符号
])
# 输入:"Héllo WORLD"
# 标准化后:"hello world"
常用 normalizer:
NFD、NFC、NFKD、NFKC- Unicode 标准化形式Lowercase()- 转换为小写StripAccents()- 去除重音符号(é → e)Strip()- 去除空白字符Replace(pattern, content)- 正则替换
Pre-tokenization
将文本拆分为类似单词的单元:
from tokenizers.pre_tokenizers import Whitespace, Punctuation, Sequence, ByteLevel
# 按空白和标点拆分
tokenizer.pre_tokenizer = Sequence([
Whitespace(),
Punctuation()
])
# 输入:"Hello, world!"
# 预 tokenization 后:["Hello", ",", "world", "!"]
常用 pre-tokenizer:
Whitespace()- 按空格、制表符、换行符拆分ByteLevel()- GPT-2 风格的字节级拆分Punctuation()- 分离标点符号Digits(individual_digits=True)- 单独拆分数字Metaspace()- 用 ▁ 替换空格(SentencePiece 风格)
Post-processing
为模型输入添加特殊 token:
from tokenizers.processors import TemplateProcessing
# BERT 风格:[CLS] 句子 [SEP]
tokenizer.post_processor = TemplateProcessing(
single="[CLS] $A [SEP]",
pair="[CLS] $A [SEP] $B [SEP]",
special_tokens=[
("[CLS]", 1),
("[SEP]", 2),
],
)
常见模式:
# GPT-2:句子 <|endoftext|>
TemplateProcessing(
single="$A <|endoftext|>",
special_tokens=[("<|endoftext|>", 50256)]
)
# RoBERTa:<s> 句子 </s>
TemplateProcessing(
single="<s> $A </s>",
pair="<s> $A </s> </s> $B </s>",
special_tokens=[("<s>", 0), ("</s>", 2)]
)
对齐追踪
追踪 token 在原始文本中的位置:
output = tokenizer.encode("Hello, world!")
# 获取 token 偏移量
for token, offset in zip(output.tokens, output.offsets):
start, end = offset
print(f"{token:10} → [{start:2}, {end:2}): {text[start:end]!r}")
# 输出:
# hello → [ 0, 5): 'Hello'
# , → [ 5, 6): ','
# world → [ 7, 12): 'world'
# ! → [12, 13): '!'
使用场景:
- 命名实体识别(将预测映射回文本)
- 问答(提取答案片段)
- Token 分类(将标签对齐到原始位置)
与 transformers 集成
使用 AutoTokenizer 加载
from transformers import AutoTokenizer
# AutoTokenizer 自动使用 fast tokenizer
tokenizer = AutoTokenizer.from_pretrained("bert-base-uncased")
# 检查是否使用 fast tokenizer
print(tokenizer.is_fast) # True
# 访问底层的 tokenizers.Tokenizer
fast_tokenizer = tokenizer.backend_tokenizer
print(type(fast_tokenizer)) # <class 'tokenizers.Tokenizer'>
将自定义分词器转换为 transformers
from tokenizers import Tokenizer
from transformers import PreTrainedTokenizerFast
# 训练自定义分词器
tokenizer = Tokenizer(BPE())
# ... 训练分词器 ...
tokenizer.save("my-tokenizer.json")
# 包装为 transformers 格式
transformers_tokenizer = PreTrainedTokenizerFast(
tokenizer_file="my-tokenizer.json",
unk_token="[UNK]",
pad_token="[PAD]",
cls_token="[CLS]",
sep_token="[SEP]",
mask_token="[MASK]"
)
# 像使用任何 transformers 分词器一样使用
outputs = transformers_tokenizer(
"Hello world",
padding=True,
truncation=True,
max_length=512,
return_tensors="pt"
)
常见模式
从迭代器训练(大型数据集)
from datasets import load_dataset
# 加载数据集
dataset = load_dataset("wikitext", "wikitext-103-raw-v1", split="train")
# 创建批次迭代器
def batch_iterator(batch_size=1000):
for i in range(0, len(dataset), batch_size):
yield dataset[i:i + batch_size]["text"]
# 训练分词器
tokenizer.train_from_iterator(
batch_iterator(),
trainer=trainer,
length=len(dataset) # 用于进度条
)
性能:处理 1GB 数据约需 10-20 分钟
启用截断和填充
# 启用截断
tokenizer.enable_truncation(max_length=512)
# 启用填充
tokenizer.enable_padding(
pad_id=tokenizer.token_to_id("[PAD]"),
pad_token="[PAD]",
length=512 # 固定长度,或设为 None 以使用批次最大长度
)
# 同时使用两者进行编码
output = tokenizer.encode("This is a long sentence that will be truncated...")
print(len(output.ids)) # 512
多进程处理
from tokenizers import Tokenizer
from multiprocessing import Pool
# 加载分词器
tokenizer = Tokenizer.from_file("tokenizer.json")
def encode_batch(texts):
return tokenizer.encode_batch(texts)
# 并行处理大型语料库
with Pool(8) as pool:
# 将语料库分成多个块
chunk_size = 1000
chunks = [corpus[i:i+chunk_size] for i in range(0, len(corpus), chunk_size)]
# 并行编码
results = pool.map(encode_batch, chunks)
加速比:8 核下可达 5-8 倍
性能基准测试
训练速度
| 语料库大小 | BPE(30k 词表) | WordPiece(30k) | Unigram(8k) |
|---|---|---|---|
| 10 MB | 15 秒 | 18 秒 | 25 秒 |
| 100 MB | 1.5 分钟 | 2 分钟 | 4 分钟 |
| 1 GB | 15 分钟 | 20 分钟 | 40 分钟 |
硬件:16 核 CPU,在英文维基百科上测试
分词速度
| 实现方式 | 1 GB 语料库 | 吞吐量 |
|---|---|---|
| 纯 Python | ~20 分钟 | ~50 MB/分钟 |
| HF Tokenizers | ~15 秒 | ~4 GB/分钟 |
| 加速比 | 80 倍 | 80 倍 |
测试:英文文本,平均句子长度 20 个词
内存使用
| 任务 | 内存 |
|---|---|
| 加载分词器 | ~10 MB |
| 训练 BPE(30k 词表) | ~200 MB |
| 编码 100 万条句子 | ~500 MB |
支持的模型
可通过 from_pretrained() 获取的预训练分词器:
BERT 系列:
bert-base-uncased、bert-large-caseddistilbert-base-uncasedroberta-base、roberta-large
GPT 系列:
gpt2、gpt2-medium、gpt2-largedistilgpt2
T5 系列:
t5-small、t5-base、t5-largegoogle/flan-t5-xxl
其他:
facebook/bart-base、facebook/mbart-large-cc25albert-base-v2、albert-xlarge-v2xlm-roberta-base、xlm-roberta-large
浏览全部:https://huggingface.co/models?library=tokenizers
参考
- 训练指南 - 训练自定义分词器、配置训练器、处理大型数据集
- 算法深入解析 - 详细解释 BPE、WordPiece、Unigram
- 流水线组件 - 归一化器、预分词器、后处理器、解码器
- Transformers 集成 - AutoTokenizer、PreTrainedTokenizerFast、特殊标记
资源
- 文档:https://huggingface.co/docs/tokenizers
- GitHub:https://github.com/huggingface/tokenizers ⭐ 9,000+
- 版本:0.20.0+
- 课程:https://huggingface.co/learn/nlp-course/chapter6/1
- 论文:BPE(Sennrich 等人,2016)、WordPiece(Schuster & Nakajima,2012)