跳到主要内容

Open WebUI 集成

Open WebUI (126k★) 是最受欢迎的自托管 AI 聊天界面。借助 Hermes Agent 内置的 API 服务器,你可以将 Open WebUI 用作你的 Agent 的精美 Web 前端——它具备完整的对话管理、用户账户和现代化的聊天界面。

架构

Open WebUI 连接到 Hermes Agent 的 API 服务器,就像连接到 OpenAI 一样。你的 Agent 会使用其完整的工具集(终端、文件操作、网络搜索、记忆、技能)来处理请求,并返回最终响应。

Open WebUI 与 Hermes 是服务器对服务器通信,因此你不需要为此集成设置 API_SERVER_CORS_ORIGINS

快速设置

1. 启用 API 服务器

添加到 ~/.hermes/.env

API_SERVER_ENABLED=true
API_SERVER_KEY=your-secret-key

2. 启动 Hermes Agent 网关

hermes gateway

你应该会看到:

[API Server] API server listening on http://127.0.0.1:8642

3. 启动 Open WebUI

docker run -d -p 3000:8080 \
-e OPENAI_API_BASE_URL=http://host.docker.internal:8642/v1 \
-e OPENAI_API_KEY=your-secret-key \
--add-host=host.docker.internal:host-gateway \
-v open-webui:/app/backend/data \
--name open-webui \
--restart always \
ghcr.io/open-webui/open-webui:main

4. 打开界面

访问 http://localhost:3000。创建你的管理员账户(第一个用户将成为管理员)。你应该能在模型下拉列表中看到你的 Agent(以你的配置文件命名,或默认配置文件下的 hermes-agent)。开始聊天吧!

Docker Compose 设置

对于更持久的设置,创建一个 docker-compose.yml

services:
open-webui:
image: ghcr.io/open-webui/open-webui:main
ports:
- "3000:8080"
volumes:
- open-webui:/app/backend/data
environment:
- OPENAI_API_BASE_URL=http://host.docker.internal:8642/v1
- OPENAI_API_KEY=your-secret-key
extra_hosts:
- "host.docker.internal:host-gateway"
restart: always

volumes:
open-webui:

然后运行:

docker compose up -d

通过管理界面配置

如果你更喜欢通过界面而不是环境变量来配置连接:

  1. 在浏览器中打开 Open WebUI:http://localhost:3000
  2. 点击你的个人资料头像管理设置
  3. 进入 连接
  4. OpenAI API 下,点击扳手图标(管理)
  5. 点击 + 添加新连接
  6. 输入:
    • URL: http://host.docker.internal:8642/v1
    • API 密钥: 你的密钥或任何非空值(例如 not-needed
  7. 点击对勾图标验证连接
  8. 保存

你的 Agent 模型现在应该会出现在模型下拉列表中(以你的配置文件命名,或默认配置文件下的 hermes-agent)。

注意

环境变量仅在 Open WebUI 首次启动时生效。之后,连接设置会存储在其内部数据库中。若要稍后更改它们,请使用管理界面或删除 Docker 卷并重新开始。

API 类型:Chat Completions 与 Responses

Open WebUI 在连接到后端时支持两种 API 模式:

模式格式何时使用
Chat Completions (默认)/v1/chat/completions推荐。开箱即用。
Responses (实验性)/v1/responses用于通过 previous_response_id 实现服务器端对话状态。

这是默认模式,无需额外配置。Open WebUI 发送标准 OpenAI 格式的请求,Hermes Agent 相应回复。每个请求都包含完整的对话历史。

使用 Responses API

要使用 Responses API 模式:

  1. 进入 管理设置连接OpenAI管理
  2. 编辑你的 hermes-agent 连接
  3. API 类型 从 "Chat Completions" 更改为 "Responses (Experimental)"
  4. 保存 通过 Responses API,Open WebUI 以 Responses 格式(input 数组 + instructions)发送请求,而 Hermes Agent 可以通过 previous_response_id 在多个回合中保留完整的工具调用历史。当 stream: true 时,Hermes 还会流式传输符合规范的 function_callfunction_call_output 项,这使得客户端能够渲染 Responses 事件,从而实现自定义的结构化工具调用 UI。
备注

目前,即使在 Responses 模式下,Open WebUI 仍在客户端管理对话历史——它在每个请求中发送完整的消息历史,而不是使用 previous_response_id。如今 Responses 模式的主要优势在于结构化的事件流:文本增量、function_callfunction_call_output 项会作为 OpenAI Responses SSE 事件到达,而不是 Chat Completions 块。

工作原理

当你在 Open WebUI 中发送消息时:

  1. Open WebUI 发送一个 POST /v1/chat/completions 请求,包含你的消息和对话历史
  2. Hermes Agent 创建一个包含其完整工具集的 AIAgent 实例
  3. Agent 处理你的请求——它可能会调用工具(终端、文件操作、网络搜索等)
  4. 当工具执行时,内联进度消息会流式传输到 UI,这样你就能看到 Agent 正在做什么(例如 `💻 ls -la`, `🔍 Python 3.12 release`
  5. Agent 的最终文本响应流式传输回 Open WebUI
  6. Open WebUI 在其聊天界面中显示响应

你的 Agent 可以访问与使用 CLI 或 Telegram 时完全相同的工具和能力——唯一的区别是前端界面。

工具进度

启用流式传输(默认)后,你会在工具运行时看到简短的内联指示器——工具表情符号及其关键参数。这些会在 Agent 最终答案之前出现在响应流中,让你了解幕后正在发生的事情。

配置参考

Hermes Agent (API 服务器)

变量默认值描述
API_SERVER_ENABLEDfalse启用 API 服务器
API_SERVER_PORT8642HTTP 服务器端口
API_SERVER_HOST127.0.0.1绑定地址
API_SERVER_KEY(必填)用于身份验证的 Bearer 令牌。需与 OPENAI_API_KEY 匹配。

Open WebUI

变量描述
OPENAI_API_BASE_URLHermes Agent 的 API URL(包含 /v1
OPENAI_API_KEY必须非空。需与你的 API_SERVER_KEY 匹配。

故障排除

下拉菜单中不显示模型

  • 检查 URL 是否包含 /v1 后缀http://host.docker.internal:8642/v1(不仅仅是 :8642
  • 验证网关是否正在运行curl http://localhost:8642/health 应返回 {"status": "ok"}
  • 检查模型列表curl http://localhost:8642/v1/models 应返回包含 hermes-agent 的列表
  • Docker 网络:从 Docker 内部看,localhost 指的是容器,而不是你的主机。请使用 host.docker.internal--network=host

连接测试通过但模型未加载

这几乎总是因为缺少 /v1 后缀。Open WebUI 的连接测试是基本的连通性检查——它不验证模型列表是否正常工作。

响应时间很长

Hermes Agent 可能在生成最终响应之前执行多个工具调用(读取文件、运行命令、搜索网络)。这对于复杂查询来说是正常的。当 Agent 完成时,响应会一次性出现。

“无效 API 密钥”错误

请确保 Open WebUI 中的 OPENAI_API_KEY 与 Hermes Agent 中的 API_SERVER_KEY 匹配。

使用配置文件的多人设置

要为每个用户运行独立的 Hermes 实例——每个实例都有自己的配置、记忆和技能——请使用配置文件。每个配置文件在不同的端口上运行自己的 API 服务器,并自动在 Open WebUI 中将配置文件名称作为模型进行通告。

1. 创建配置文件并配置 API 服务器

hermes profile create alice
hermes -p alice config set API_SERVER_ENABLED true
hermes -p alice config set API_SERVER_PORT 8643
hermes -p alice config set API_SERVER_KEY alice-secret

hermes profile create bob
hermes -p bob config set API_SERVER_ENABLED true
hermes -p bob config set API_SERVER_PORT 8644
hermes -p bob config set API_SERVER_KEY bob-secret

2. 启动每个网关

hermes -p alice gateway &
hermes -p bob gateway &

3. 在 Open WebUI 中添加连接

管理员设置连接OpenAI API管理 中,为每个配置文件添加一个连接:

连接URLAPI 密钥
Alicehttp://host.docker.internal:8643/v1alice-secret
Bobhttp://host.docker.internal:8644/v1bob-secret

模型下拉菜单将显示 alicebob 作为不同的模型。您可以通过管理面板将模型分配给 Open WebUI 用户,让每个用户拥有自己独立的 Hermes Agent。

自定义模型名称

模型名称默认为配置文件名称。要覆盖它,请在配置文件的 .env 中设置 API_SERVER_MODEL_NAME

hermes -p alice config set API_SERVER_MODEL_NAME "Alice's Agent"

Linux Docker (无 Docker Desktop)

在没有 Docker Desktop 的 Linux 上,host.docker.internal 默认无法解析。可选方案:

# 选项 1:添加主机映射
docker run --add-host=host.docker.internal:host-gateway ...

# 选项 2:使用主机网络
docker run --network=host -e OPENAI_API_BASE_URL=http://localhost:8642/v1 ...

# 选项 3:使用 Docker 网桥 IP
docker run -e OPENAI_API_BASE_URL=http://172.17.0.1:8642/v1 ...