跳到主要内容

Honcho 记忆

Honcho 是一个 AI 原生的记忆后端,它在 Hermes 内置记忆系统之上增加了辩证推理和深度用户建模能力。与简单的键值存储不同,Honcho 通过在对话发生后进行推理,持续维护一个关于用户是谁的模型——包括他们的偏好、沟通风格、目标和行为模式。

Honcho 是一个记忆提供者插件

Honcho 已集成到记忆提供者系统中。下文所有功能均可通过统一的记忆提供者接口使用。

Honcho 带来的能力

能力内置记忆Honcho
跨会话持久化✔ 基于文件的 MEMORY.md/USER.md✔ 服务端 API 支持
用户画像✔ 手动 Agent 整理✔ 自动辩证推理
会话摘要✔ 会话范围上下文注入
多 Agent 隔离✔ 按对等方(peer)画像分离
观察模式✔ 统一或定向观察
结论(推导出的洞察)✔ 服务端对模式进行推理
跨历史记录搜索✔ FTS5 会话搜索✔ 基于结论的语义搜索

辩证推理:在每次对话轮次后(由 dialecticCadence 控制),Honcho 会分析对话内容,并推导出关于用户偏好、习惯和目标的洞察。这些洞察会随时间累积,使 Agent 获得超越用户明确表述的、不断加深的理解。辩证推理支持多轮深度(1-3 轮),并自动选择冷/热启动提示——冷启动查询侧重于一般用户事实,而热启动查询则优先考虑会话范围内的上下文。

会话范围上下文:基础上下文现在包含会话摘要,以及用户表征和对等方卡片。这使 Agent 能够了解当前会话中已经讨论过的内容,减少重复并保持连续性。

多 Agent 画像:当多个 Hermes 实例与同一用户对话时(例如,一个编码助手和一个个人助手),Honcho 会维护独立的“对等方”画像。每个对等方只能看到自己的观察和结论,防止上下文交叉污染。

设置

hermes memory setup    # 从提供者列表中选择 "honcho"

或手动配置:

# ~/.hermes/config.yaml
memory:
provider: honcho
echo "HONCHO_API_KEY=*** >> ~/.hermes/.env

honcho.dev 获取 API 密钥。

架构

双层上下文注入

在每次轮次(hybridcontext 模式下),Honcho 会组装两层上下文注入到系统提示中:

  1. 基础上下文 —— 会话摘要、用户表征、用户对等方卡片、AI 自我表征和 AI 身份卡片。按 contextCadence 刷新。这是“用户是谁”的层面。
  2. 辩证补充 —— 由 LLM 合成的关于用户当前状态和需求的推理。按 dialecticCadence 刷新。这是“当前什么最重要”的层面。

这两层内容会被拼接起来,并在设置了 contextTokens 预算的情况下进行截断。

冷/热启动提示选择

辩证推理会自动在两种提示策略之间选择:

  • 冷启动(尚无基础上下文):通用查询 —— “这个人是谁?他们的偏好、目标和工作风格是什么?”
  • 热会话(基础上下文已存在):会话范围查询 —— “根据本次会话目前讨论的内容,关于此用户的哪些上下文最相关?”

这是根据基础上下文是否已填充来自动决定的。

三个正交配置旋钮

成本和深度由三个独立的旋钮控制:

旋钮控制内容默认值
contextCadencecontext() API 调用之间的轮次数(基础层刷新)1
dialecticCadencepeer.chat() LLM 调用之间的轮次数(辩证层刷新)2(推荐 1–5)
dialecticDepth每次辩证调用中 .chat() 的轮次数(1–3)1
这两者是正交的——你可以设置高频的上下文刷新配合低频的辩证,也可以在低频下进行深度多轮的辩证。例如:contextCadence: 1, dialecticCadence: 5, dialecticDepth: 2 表示每轮都刷新基础上下文,每 5 轮运行一次辩证,且每次辩证运行进行 2 轮。

辩证深度(多轮)

dialecticDepth > 1 时,每次辩证调用会运行多轮 .chat()

  • 第 0 轮:冷启动或热启动提示(见上文)
  • 第 1 轮:自我审查——识别初始评估中的空白,并从近期会话中综合证据
  • 第 2 轮:调和——检查前几轮之间是否存在矛盾,并生成最终的综合结果

每一轮都使用按比例分配的逻辑推理级别(前几轮较轻,主轮使用基础级别)。可以通过 dialecticDepthLevels 覆盖每轮的级别——例如,对于一个深度为 3 的运行,使用 ["minimal", "medium", "high"]

如果前一轮返回了强信号(冗长、结构化的输出),则后续轮次会提前退出,因此深度为 3 并不总是意味着 3 次 LLM 调用。

会话启动预热

在会话初始化时,Honcho 会在后台以配置的完整 dialecticDepth 发起一次辩证调用,并将结果直接交给第 1 轮的上下文组装。对于一个冷启动的对等体,单轮预热通常返回较薄的输出——多轮深度运行会在用户开口之前就执行审查/调和循环。如果预热在第 1 轮之前尚未完成,第 1 轮将回退到具有有限超时的同步调用。

查询自适应推理级别

自动注入的辩证会根据查询长度调整 dialecticReasoningLevel:≥120 字符时 +1 级,≥400 字符时 +2 级,上限为 reasoningLevelCap(默认为 "high")。通过设置 reasoningHeuristic: false 可以禁用此功能,将每次自动调用固定为 dialecticReasoningLevel。可用级别:minimallowmediumhighmax

配置选项

Honcho 在 ~/.honcho/config.json(全局)或 $HERMES_HOME/honcho.json(配置文件本地)中进行配置。设置向导会为你处理此事。

完整配置参考

默认值描述
contextTokensnull(无上限)每轮自动注入上下文的令牌预算。设置为整数(例如 1200)以设置上限。在单词边界处截断
contextCadence1context() API 调用(基础层刷新)之间的最小轮数间隔
dialecticCadence2peer.chat() LLM 调用(辩证层)之间的最小轮数间隔。建议 1–5。在 tools 模式下不相关——模型调用是显式的
dialecticDepth1每次辩证调用的 .chat() 轮数。限制在 1–3
dialecticDepthLevelsnull可选的每轮推理级别数组,例如 ["minimal", "low", "medium"]。覆盖按比例分配的默认值
dialecticReasoningLevel'low'基础推理级别:minimallowmediumhighmax
dialecticDynamictrue当为 true 时,模型可以通过工具参数按调用覆盖推理级别
dialecticMaxChars600注入系统提示的辩证结果的最大字符数
recallMode'hybrid'hybrid(自动注入 + 工具)、context(仅注入)、tools(仅工具)
writeFrequency'async'何时刷新消息:async(后台线程)、turn(同步)、session(结束时批量),或整数 N
saveMessagestrue是否将消息持久化到 Honcho API
observationMode'directional'directional(全部开启)或 unified(共享池)。使用 observation 对象进行细粒度控制以覆盖
messageMaxChars25000通过 add_messages() 发送的每条消息的最大字符数。超出则分块
dialecticMaxInputChars10000辩证查询输入到 peer.chat() 的最大字符数
sessionStrategy'per-directory'per-directoryper-repoper-sessionglobal

会话策略控制 Honcho 会话如何映射到你的工作:

  • per-session —— 每次 hermes 运行都获得一个新的会话。干净的起点,通过工具进行记忆。推荐新用户使用。
  • per-directory —— 每个工作目录对应一个 Honcho 会话。上下文在多次运行间累积。
  • per-repo —— 每个 git 仓库对应一个会话。
  • global —— 跨所有目录的单一会话。 Recall 模式控制记忆如何流入对话:
  • hybrid — 上下文自动注入系统提示词,且工具可用(模型决定何时查询)。
  • context — 仅自动注入,工具隐藏。
  • tools — 仅工具,无自动注入。Agent 必须显式调用 honcho_reasoninghoncho_search 等。

各 Recall 模式下的设置:

设置项hybridcontexttools
writeFrequency刷新消息刷新消息刷新消息
contextCadence控制基础上下文刷新控制基础上下文刷新无关 — 无注入
dialecticCadence控制自动 LLM 调用控制自动 LLM 调用无关 — 模型显式调用
dialecticDepth每次调用多轮每次调用多轮无关 — 模型显式调用
contextTokens限制注入量限制注入量无关 — 无注入
dialecticDynamic控制模型覆盖不适用(无工具)控制模型覆盖

tools 模式下,模型完全掌控 — 它可以在需要时调用 honcho_reasoning,并选择任意的 reasoning_level。节奏和预算设置仅适用于具有自动注入的模式(hybridcontext)。

观察模式(定向 vs. 统一)

Honcho 将对话建模为对等方交换消息。每个对等方有两个观察开关,与 Honcho 的 SessionPeerConfig 一一对应:

开关效果
observeMeHoncho 根据此对等方自己的消息构建其表征
observeOthers此对等方观察其他对等方的消息(用于跨对等方推理)

两个对等方 × 两个开关 = 四个标志位。observationMode 是一个预设的简写:

预设用户标志位AI 标志位语义
"directional" (默认)me: 开, others: 开me: 开, others: 开完全相互观察。启用跨对等方辩证 — “AI 根据用户所说和 AI 的回复,对用户了解什么。”
"unified"me: 开, others: 关me: 关, others: 开共享池语义 — AI 仅观察用户消息,用户对等方仅自我建模。单观察者池。

可以通过显式的 observation 块覆盖预设,以实现按对等方控制:

"observation": {
"user": { "observeMe": true, "observeOthers": true },
"ai": { "observeMe": true, "observeOthers": false }
}

常见模式:

意图配置
完全观察(大多数用户)"observationMode": "directional"
AI 不应从其自身回复中重新建模用户"ai": {"observeMe": true, "observeOthers": false}
AI 对等方不应通过自我观察更新的强角色"ai": {"observeMe": false, "observeOthers": true}

通过 Honcho 仪表板 设置的服务器端开关优先级高于本地默认值 — Hermes 在会话初始化时会同步它们。

工具

当 Honcho 作为记忆提供者激活时,五个工具变为可用:

工具用途
honcho_profile读取或更新对等方卡片 — 传入 card(事实列表)以更新,省略以读取
honcho_search对上下文进行语义搜索 — 原始摘录,无 LLM 合成
honcho_context完整会话上下文 — 摘要、表征、卡片、最近消息
honcho_reasoning来自 Honcho LLM 的合成答案 — 传入 reasoning_level (minimal/low/medium/high/max) 以控制深度
honcho_conclude创建或删除结论 — 传入 conclusion 以创建,delete_id 以删除(仅限 PII)

CLI 命令

hermes honcho status          # 连接状态、配置和关键设置
hermes honcho setup # 交互式设置向导
hermes honcho strategy # 显示或设置会话策略
hermes honcho peer # 为多 Agent 设置更新对等方名称
hermes honcho mode # 显示或设置 recall 模式
hermes honcho tokens # 显示或设置上下文令牌预算
hermes honcho identity # 显示 Honcho 对等方身份
hermes honcho sync # 为所有配置文件同步主机块
hermes honcho enable # 启用 Honcho
hermes honcho disable # 禁用 Honcho

hermes honcho 迁移

如果你之前使用过独立的 hermes honcho setup

  1. 你现有的配置(honcho.json~/.honcho/config.json)会被保留
  2. 你的服务器端数据(记忆、结论、用户档案)保持完整
  3. 在 config.yaml 中设置 memory.provider: honcho 以重新激活

无需重新登录或重新设置。运行 hermes memory setup 并选择 "honcho" —— 向导会检测到你现有的配置。

完整文档

完整参考请查阅 记忆提供者 — Honcho