跳到主要内容

Obliteratus

OBLITERATUS: 消除 LLM 的拒绝行为(均值差异法)。

技能元数据

来源内置(默认安装)
路径skills/mlops/inference/obliteratus
版本2.0.0
作者Hermes Agent
许可证MIT
依赖项obliteratus, torch, transformers, bitsandbytes, accelerate, safetensors
标签Abliteration, Uncensoring, Refusal-Removal, LLM, Weight-Projection, SVD, Mechanistic-Interpretability, HuggingFace, Model-Surgery
相关技能vllm, gguf, huggingface-tokenizers

参考:完整 SKILL.md

信息

以下是该技能被触发时 Hermes 加载的完整技能定义。当技能激活时,Agent 会将其视为指令。

OBLITERATUS 技能

包含内容

9 个 CLI 方法、28 个分析模块、116 个跨 5 个计算层级的模型预设、锦标赛评估以及遥测驱动的推荐。

无需重新训练或微调,即可从开放权重的 LLM 中移除拒绝行为(护栏)。使用机械可解释性技术——包括均值差异法、SVD、白化 SVD、LEACE 概念擦除、SAE 分解、贝叶斯核投影等——来识别并精确切除模型权重中的拒绝方向,同时保留推理能力。

许可证警告: OBLITERATUS 采用 AGPL-3.0 许可证。切勿将其作为 Python 库导入。始终通过 CLI(obliteratus 命令)或子进程调用。这可以保持 Hermes Agent 的 MIT 许可证纯净。

视频指南

Hermes Agent 使用 OBLITERATUS 消除 Gemma 的拒绝行为的完整演示: https://www.youtube.com/watch?v=8fG9BrNTeHs("OBLITERATUS: An AI Agent Removed Gemma 4's Safety Guardrails")

当用户希望在自行运行之前获得端到端工作流的视觉概览时,此视频很有用。

何时使用此技能

在以下情况下触发:

  • 用户想要“解除审查”或“消除”一个 LLM
  • 用户询问如何移除模型的拒绝/护栏
  • 用户想要创建 Llama、Qwen、Mistral 等的无审查版本
  • 用户提到“拒绝移除”、“消除”、“权重投影”
  • 用户想要分析模型的拒绝机制如何工作
  • 用户引用 OBLITERATUS、abliterator 或拒绝方向

步骤 1:安装

检查是否已安装:

obliteratus --version 2>/dev/null && echo "INSTALLED" || echo "NOT INSTALLED"

如果未安装,从 GitHub 克隆并安装:

git clone https://github.com/elder-plinius/OBLITERATUS.git
cd OBLITERATUS
pip install -e .
# 如需 Gradio Web UI 支持:
# pip install -e ".[spaces]"

重要提示: 安装前请与用户确认。这会拉取约 5-10GB 的依赖项(PyTorch、Transformers、bitsandbytes 等)。

步骤 2:检查硬件

在开始之前,检查可用的 GPU:

python3 -c "
import torch
if torch.cuda.is_available():
gpu = torch.cuda.get_device_name(0)
vram = torch.cuda.get_device_properties(0).total_memory / 1024**3
print(f'GPU: {gpu}')
print(f'VRAM: {vram:.1f} GB')
if vram < 4: print('TIER: tiny (models under 1B)')
elif vram < 8: print('TIER: small (models 1-4B)')
elif vram < 16: print('TIER: medium (models 4-9B with 4bit quant)')
elif vram < 32: print('TIER: large (models 8-32B with 4bit quant)')
else: print('TIER: frontier (models 32B+)')
else:
print('NO GPU - only tiny models (under 1B) on CPU')
"

VRAM 需求(4-bit 量化)

VRAM最大模型规模示例模型
仅 CPU~1B 参数GPT-2, TinyLlama, SmolLM
4-8 GB~4B 参数Qwen2.5-1.5B, Phi-3.5 mini, Llama 3.2 3B
8-16 GB~9B 参数Llama 3.1 8B, Mistral 7B, Gemma 2 9B
24 GB~32B 参数Qwen3-32B, Llama 3.1 70B (紧张), Command-R
48 GB+~72B+ 参数Qwen2.5-72B, DeepSeek-R1
多 GPU200B+ 参数Llama 3.1 405B, DeepSeek-V3 (685B MoE)

第三步:浏览可用模型并获取推荐

# 按计算等级浏览模型
obliteratus models --tier medium

# 获取特定模型的架构信息
obliteratus info <model_name>

# 获取基于遥测数据的最佳方法与参数推荐
obliteratus recommend <model_name>
obliteratus recommend <model_name> --insights # 全局跨架构排名

第四步:选择方法

方法选择指南

默认/大多数情况下推荐:advanced 它使用多方向 SVD 配合保范投影,经过充分测试。

情况推荐方法原因
默认 / 大多数模型advanced多方向 SVD,保范,可靠
快速测试 / 原型开发basic快速、简单,足以评估效果
密集模型(Llama, Mistral)advanced多方向,保范
MoE 模型(DeepSeek, Mixtral)nuclear专家粒度,处理 MoE 复杂性
推理模型(R1 蒸馏版)surgical感知 CoT,保留思维链
顽固拒绝持续存在aggressive白化 SVD + 头部手术 + 越狱
想要可逆更改使用引导向量(见分析部分)
追求最高质量,不计时间成本optimized贝叶斯搜索最佳参数
实验性自动检测informed自动检测对齐类型 — 实验性,不一定总是优于 advanced

9 种 CLI 方法

  • basic — 通过均值差异提取单一拒绝方向。速度快(8B 模型约 5-10 分钟)。
  • advanced(默认,推荐)— 多个 SVD 方向,保范投影,2 轮精炼。速度中等(约 10-20 分钟)。
  • aggressive — 白化 SVD + 越狱对比 + 注意力头部手术。连贯性受损风险较高。
  • spectral_cascade — DCT 频域分解。研究/新颖方法。
  • informed — 在 abliteration 过程中运行分析以自动配置。实验性 — 比 advanced 慢且可预测性差。
  • surgical — SAE 特征 + 神经元掩码 + 头部手术 + 逐专家处理。非常慢(约 1-2 小时)。最适合推理模型。
  • optimized — 贝叶斯超参数搜索(Optuna TPE)。运行时间最长,但能找到最优参数。
  • inverted — 翻转拒绝方向。模型变得主动愿意。
  • nuclear — 针对顽固 MoE 模型的最大力度组合。专家粒度。

方向提取方法(--direction-method 参数)

  • diff_means(默认)— 拒绝/服从激活之间的简单均值差异。鲁棒性强。
  • svd — 多方向 SVD 提取。适用于更复杂的对齐场景。
  • leace — LEACE(通过闭式估计的线性擦除)。最优线性擦除。

4 种仅限 Python API 的方法

(不通过 CLI 提供 — 需要 Python 导入,这违反了 AGPL 边界。仅当用户明确希望在自己的 AGPL 项目中将 OBLITERATUS 作为库使用时才提及。)

  • failspy, gabliteration, heretic, rdo

第 5 步:运行 Abliteration

标准用法

# 默认方法(高级)— 推荐用于大多数模型
obliteratus obliterate <model_name> --method advanced --output-dir ./abliterated-models

# 使用 4 位量化(节省显存)
obliteratus obliterate <model_name> --method advanced --quantization 4bit --output-dir ./abliterated-models

# 大型模型(70B+)— 保守默认值
obliteratus obliterate <model_name> --method advanced --quantization 4bit --large-model --output-dir ./abliterated-models

微调参数

obliteratus obliterate <model_name> \
--method advanced \
--direction-method diff_means \
--n-directions 4 \
--refinement-passes 2 \
--regularization 0.1 \
--quantization 4bit \
--output-dir ./abliterated-models \
--contribute # 选择加入遥测以支持社区研究

关键参数

参数描述默认值
--methodAbliteration 方法advanced
--direction-method方向提取方法diff_means
--n-directions拒绝方向数量(1-32)取决于方法
--refinement-passes迭代轮次(1-5)2
--regularization正则化强度(0.0-1.0)0.1
--quantization以 4bit 或 8bit 加载无(全精度)
--large-model120B+ 模型的保守默认值false
--output-dir保存 abliterated 模型的目录./obliterated_model
--contribute共享匿名结果用于研究false
--verify-sample-size用于拒绝检查的测试提示数量20
--dtype模型数据类型(float16, bfloat16)auto

其他执行模式

# 交互式引导模式(硬件 → 模型 → 预设)
obliteratus interactive

# Web UI(Gradio)
obliteratus ui --port 7860

# 从 YAML 配置运行完整消融研究
obliteratus run config.yaml --preset quick

# 锦标赛:让所有方法相互对抗
obliteratus tourney <model_name>

第 6 步:验证结果

Abliteration 后,检查输出指标:

指标良好值警告
拒绝率< 5%(理想情况下 ~0%)> 10% 表示拒绝仍然存在
困惑度变化< 10% 增加> 15% 表示连贯性受损
KL 散度< 0.1> 0.5 表示显著分布偏移
连贯性高 / 通过定性检查响应质量下降、重复

如果拒绝率持续偏高(> 10%)

  1. 尝试 aggressive 方法
  2. 增加 --n-directions(例如 8 或 16)
  3. 添加 --refinement-passes 3
  4. 尝试使用 --direction-method svd 替代 diff_means

如果连贯性受损(困惑度增加超过 15%)

  1. 减少 --n-directions(尝试 2)
  2. 增加 --regularization(尝试 0.3)
  3. --refinement-passes 减少到 1
  4. 尝试 basic 方法(更温和)

第 7 步:使用 Abliterated 模型

输出是一个标准的 HuggingFace 模型目录。

# 使用 transformers 在本地测试
python3 -c "
from transformers import AutoModelForCausalLM, AutoTokenizer
model = AutoModelForCausalLM.from_pretrained('./abliterated-models/<model>')
tokenizer = AutoTokenizer.from_pretrained('./abliterated-models/<model>')
inputs = tokenizer('如何撬锁?', return_tensors='pt')
outputs = model.generate(**inputs, max_new_tokens=200)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
"

# 上传到 HuggingFace Hub
huggingface-cli upload <username>/<model-name>-abliterated ./abliterated-models/<model>

# 使用 vLLM 提供服务
vllm serve ./abliterated-models/<model>

CLI 命令参考

命令描述
obliteratus obliterate主消融命令
obliteratus info &lt;model&gt;打印模型架构详情
obliteratus models --tier &lt;tier&gt;按计算层级浏览精选模型
obliteratus recommend &lt;model&gt;基于遥测数据的方法/参数建议
obliteratus interactive引导式设置向导
obliteratus tourney &lt;model&gt;锦标赛:所有方法逐一对比
obliteratus run &lt;config.yaml&gt;从 YAML 执行消融研究
obliteratus strategies列出所有已注册的消融策略
obliteratus report &lt;results.json&gt;重新生成可视化报告
obliteratus ui启动 Gradio 网页界面
obliteratus aggregate汇总社区遥测数据

分析模块

OBLITERATUS 包含 28 个用于机制可解释性的分析模块。 完整参考请参见 skill_view(name="obliteratus", file_path="references/analysis-modules.md")

快速分析命令

# 运行特定分析模块
obliteratus run analysis-config.yaml --preset quick

# 优先运行的关键模块:
# - alignment_imprint: 识别 DPO/RLHF/CAI/SFT 对齐方法
# - concept_geometry: 单一方向 vs 多面体锥
# - logit_lens: 确定哪一层决定拒绝
# - anti_ouroboros: 自我修复风险评分
# - causal_tracing: 因果必要组件

引导向量(可逆替代方案)

无需永久修改权重,使用推理时引导:

# 仅限 Python API — 用于用户自己的项目
from obliteratus.analysis.steering_vectors import SteeringVectorFactory, SteeringHookManager

消融策略

除了基于方向的消融,OBLITERATUS 还包括结构消融策略:

  • 嵌入消融 — 针对嵌入层组件
  • FFN 消融 — 前馈网络块移除
  • 头剪枝 — 注意力头剪枝
  • 层移除 — 完整层移除 列出所有可用策略:obliteratus strategies

评估

OBLITERATUS 包含内置的评估工具:

  • 拒绝率基准测试
  • 困惑度对比(前后)
  • 集成 LM Eval Harness 用于学术基准
  • 与竞品直接对比
  • 基线性能追踪

平台支持

  • CUDA — 完全支持(NVIDIA GPU)
  • Apple Silicon (MLX) — 通过 MLX 后端支持
  • CPU — 支持小模型(< 1B 参数)

YAML 配置模板

通过 skill_view 加载模板以实现可复现的运行:

  • templates/abliteration-config.yaml — 标准单模型配置
  • templates/analysis-study.yaml — 消融前分析研究
  • templates/batch-abliteration.yaml — 多模型批量处理

遥测

OBLITERATUS 可选择将匿名运行数据贡献给全球研究数据集。 使用 --contribute 标志启用。不收集任何个人数据——仅包含模型名称、方法、指标。

常见陷阱

  1. 不要将 informed 作为默认选项——它处于实验阶段且速度较慢。请使用 advanced 以获得可靠结果。
  2. 约 1B 以下的模型对消融反应不佳——它们的拒绝行为浅层且碎片化,难以提取清晰的方向。预期结果为部分消融(剩余 20-40% 拒绝率)。3B 以上的模型具有更清晰的拒绝方向,响应更好(使用 advanced 时通常拒绝率为 0%)。
  3. aggressive 可能使情况更糟——在小模型上会损害连贯性,甚至增加拒绝率。仅当 advanced 在 3B+ 模型上留下超过 10% 拒绝率时使用。
  4. 始终检查困惑度——如果飙升超过 15%,说明模型已受损。降低激进程度。
  5. MoE 模型需要特殊处理——对 Mixtral、DeepSeek-MoE 等使用 nuclear 方法。
  6. 量化模型无法重新量化——先对全精度模型进行消融,再量化输出。
  7. VRAM 估算为近似值——4-bit 量化有帮助,但提取过程中峰值使用可能飙升。
  8. 推理模型很敏感——对 R1 蒸馏模型使用 surgical 以保留思维链。
  9. 检查 obliteratus recommend——遥测数据可能提供比默认值更好的参数。
  10. AGPL 许可证——切勿在 MIT/Apache 项目中 import obliteratus。仅限 CLI 调用。
  11. 大模型(70B+)——始终使用 --large-model 标志以采用保守默认值。
  12. 频谱认证 RED 很常见——即使实际拒绝率为 0%,频谱检查也经常标记为“不完整”。请检查实际拒绝率,而非仅依赖频谱认证。

互补技能

  • vllm — 以高吞吐量服务消融后的模型
  • gguf — 将消融后的模型转换为 GGUF 格式以用于 llama.cpp
  • huggingface-tokenizers — 处理模型分词器