2026-02-01 22:47:44 +01:00
|
|
|
|
---
|
|
|
|
|
|
read_when:
|
2026-02-03 13:23:00 -08:00
|
|
|
|
- 解释 token 使用量、成本或上下文窗口时
|
2026-02-01 22:47:44 +01:00
|
|
|
|
- 调试上下文增长或压缩行为时
|
2026-02-03 13:23:00 -08:00
|
|
|
|
summary: OpenClaw 如何构建提示上下文并报告 token 使用量 + 成本
|
|
|
|
|
|
title: Token 使用与成本
|
2026-02-01 22:47:44 +01:00
|
|
|
|
x-i18n:
|
2026-02-03 13:23:00 -08:00
|
|
|
|
generated_at: "2026-02-03T07:54:57Z"
|
2026-02-01 22:47:44 +01:00
|
|
|
|
model: claude-opus-4-5
|
|
|
|
|
|
provider: pi
|
|
|
|
|
|
source_hash: aee417119851db9e36890487517ed9602d214849e412127e7f534ebec5c9e105
|
2026-02-07 15:40:35 -05:00
|
|
|
|
source_path: reference/token-use.md
|
2026-02-01 22:47:44 +01:00
|
|
|
|
workflow: 15
|
|
|
|
|
|
---
|
|
|
|
|
|
|
2026-02-03 13:23:00 -08:00
|
|
|
|
# Token 使用与成本
|
2026-02-01 22:47:44 +01:00
|
|
|
|
|
2026-02-03 13:23:00 -08:00
|
|
|
|
OpenClaw 跟踪的是 **token**,而不是字符。Token 是模型特定的,但大多数
|
|
|
|
|
|
OpenAI 风格的模型对于英文文本平均约 4 个字符为一个 token。
|
2026-02-01 22:47:44 +01:00
|
|
|
|
|
2026-02-03 13:23:00 -08:00
|
|
|
|
## 系统提示词如何构建
|
2026-02-01 22:47:44 +01:00
|
|
|
|
|
2026-02-03 13:23:00 -08:00
|
|
|
|
OpenClaw 在每次运行时组装自己的系统提示词。它包括:
|
2026-02-01 22:47:44 +01:00
|
|
|
|
|
|
|
|
|
|
- 工具列表 + 简短描述
|
2026-02-02 15:46:45 +01:00
|
|
|
|
- Skills 列表(仅元数据;指令通过 `read` 按需加载)
|
2026-02-03 13:23:00 -08:00
|
|
|
|
- 自我更新指令
|
|
|
|
|
|
- 工作区 + 引导文件(`AGENTS.md`、`SOUL.md`、`TOOLS.md`、`IDENTITY.md`、`USER.md`、`HEARTBEAT.md`、`BOOTSTRAP.md`(新建时))。大文件会被 `agents.defaults.bootstrapMaxChars`(默认:20000)截断。
|
2026-02-01 22:47:44 +01:00
|
|
|
|
- 时间(UTC + 用户时区)
|
|
|
|
|
|
- 回复标签 + 心跳行为
|
|
|
|
|
|
- 运行时元数据(主机/操作系统/模型/思考)
|
|
|
|
|
|
|
2026-02-03 13:23:00 -08:00
|
|
|
|
完整分解参见[系统提示词](/concepts/system-prompt)。
|
2026-02-01 22:47:44 +01:00
|
|
|
|
|
2026-02-03 13:23:00 -08:00
|
|
|
|
## 什么算入上下文窗口
|
2026-02-01 22:47:44 +01:00
|
|
|
|
|
|
|
|
|
|
模型接收的所有内容都计入上下文限制:
|
|
|
|
|
|
|
2026-02-03 13:23:00 -08:00
|
|
|
|
- 系统提示词(上面列出的所有部分)
|
2026-02-01 22:47:44 +01:00
|
|
|
|
- 对话历史(用户 + 助手消息)
|
|
|
|
|
|
- 工具调用和工具结果
|
|
|
|
|
|
- 附件/转录(图片、音频、文件)
|
2026-02-03 13:23:00 -08:00
|
|
|
|
- 压缩摘要和修剪产物
|
|
|
|
|
|
- 提供商包装或安全头(不可见,但仍计数)
|
2026-02-01 22:47:44 +01:00
|
|
|
|
|
2026-02-03 13:23:00 -08:00
|
|
|
|
有关实际分解(每个注入文件、工具、Skills 和系统提示词大小),使用 `/context list` 或 `/context detail`。参见[上下文](/concepts/context)。
|
2026-02-01 22:47:44 +01:00
|
|
|
|
|
|
|
|
|
|
## 如何查看当前 token 使用量
|
|
|
|
|
|
|
2026-02-03 13:23:00 -08:00
|
|
|
|
在聊天中使用:
|
2026-02-01 22:47:44 +01:00
|
|
|
|
|
2026-02-03 13:23:00 -08:00
|
|
|
|
- `/status` → 带有会话模型、上下文使用量、
|
|
|
|
|
|
最后响应输入/输出 token 和**预估成本**(仅 API 密钥)的 **emoji 丰富的状态卡片**。
|
|
|
|
|
|
- `/usage off|tokens|full` → 在每个回复后附加**每响应使用量页脚**。
|
|
|
|
|
|
- 每会话持久化(存储为 `responseUsage`)。
|
|
|
|
|
|
- OAuth 认证**隐藏成本**(仅 token)。
|
|
|
|
|
|
- `/usage cost` → 从 OpenClaw 会话日志显示本地成本摘要。
|
2026-02-01 22:47:44 +01:00
|
|
|
|
|
|
|
|
|
|
其他界面:
|
|
|
|
|
|
|
|
|
|
|
|
- **TUI/Web TUI:** 支持 `/status` + `/usage`。
|
2026-02-03 13:23:00 -08:00
|
|
|
|
- **CLI:** `openclaw status --usage` 和 `openclaw channels list` 显示
|
|
|
|
|
|
提供商配额窗口(不是每响应成本)。
|
2026-02-01 22:47:44 +01:00
|
|
|
|
|
2026-02-03 13:23:00 -08:00
|
|
|
|
## 成本估算(显示时)
|
2026-02-01 22:47:44 +01:00
|
|
|
|
|
2026-02-03 13:23:00 -08:00
|
|
|
|
成本从你的模型定价配置估算:
|
2026-02-01 22:47:44 +01:00
|
|
|
|
|
|
|
|
|
|
```
|
|
|
|
|
|
models.providers.<provider>.models[].cost
|
|
|
|
|
|
```
|
|
|
|
|
|
|
2026-02-03 13:23:00 -08:00
|
|
|
|
这些是 `input`、`output`、`cacheRead` 和
|
|
|
|
|
|
`cacheWrite` 的**每 1M token 美元**。如果缺少定价,OpenClaw 仅显示 token。OAuth 令牌
|
|
|
|
|
|
永远不显示美元成本。
|
2026-02-01 22:47:44 +01:00
|
|
|
|
|
2026-02-03 13:23:00 -08:00
|
|
|
|
## 缓存 TTL 和修剪影响
|
2026-02-01 22:47:44 +01:00
|
|
|
|
|
2026-02-03 13:23:00 -08:00
|
|
|
|
提供商提示缓存仅在缓存 TTL 窗口内适用。OpenClaw 可以
|
|
|
|
|
|
选择性地运行**缓存 TTL 修剪**:它在缓存 TTL
|
|
|
|
|
|
过期后修剪会话,然后重置缓存窗口,以便后续请求可以重用
|
|
|
|
|
|
新缓存的上下文,而不是重新缓存完整历史。这在会话空闲超过 TTL 时
|
|
|
|
|
|
可以降低缓存写入成本。
|
2026-02-01 22:47:44 +01:00
|
|
|
|
|
2026-02-03 13:23:00 -08:00
|
|
|
|
在 [Gateway 网关配置](/gateway/configuration) 中配置它,并在
|
|
|
|
|
|
[会话修剪](/concepts/session-pruning) 中查看行为详情。
|
2026-02-01 22:47:44 +01:00
|
|
|
|
|
2026-02-03 13:23:00 -08:00
|
|
|
|
心跳可以在空闲间隙中保持缓存**热**。如果你的模型缓存 TTL
|
|
|
|
|
|
是 `1h`,将心跳间隔设置为略低于此(例如 `55m`)可以避免
|
|
|
|
|
|
重新缓存完整提示,从而降低缓存写入成本。
|
2026-02-01 22:47:44 +01:00
|
|
|
|
|
2026-02-03 13:23:00 -08:00
|
|
|
|
有关 Anthropic API 定价,缓存读取比输入
|
|
|
|
|
|
token 便宜得多,而缓存写入以更高的倍率计费。参见 Anthropic 的
|
|
|
|
|
|
提示缓存定价了解最新费率和 TTL 倍率:
|
2026-02-01 22:47:44 +01:00
|
|
|
|
https://docs.anthropic.com/docs/build-with-claude/prompt-caching
|
|
|
|
|
|
|
2026-02-03 13:23:00 -08:00
|
|
|
|
### 示例:用心跳保持 1 小时缓存热
|
2026-02-01 22:47:44 +01:00
|
|
|
|
|
|
|
|
|
|
```yaml
|
|
|
|
|
|
agents:
|
|
|
|
|
|
defaults:
|
|
|
|
|
|
model:
|
|
|
|
|
|
primary: "anthropic/claude-opus-4-5"
|
|
|
|
|
|
models:
|
|
|
|
|
|
"anthropic/claude-opus-4-5":
|
|
|
|
|
|
params:
|
|
|
|
|
|
cacheRetention: "long"
|
|
|
|
|
|
heartbeat:
|
|
|
|
|
|
every: "55m"
|
|
|
|
|
|
```
|
|
|
|
|
|
|
2026-02-03 13:23:00 -08:00
|
|
|
|
## 减少 token 压力的技巧
|
2026-02-01 22:47:44 +01:00
|
|
|
|
|
2026-02-03 13:23:00 -08:00
|
|
|
|
- 使用 `/compact` 来总结长会话。
|
|
|
|
|
|
- 在你的工作流中修剪大的工具输出。
|
|
|
|
|
|
- 保持 skill 描述简短(skill 列表会注入到提示中)。
|
|
|
|
|
|
- 对于冗长的探索性工作,优先使用较小的模型。
|
2026-02-01 22:47:44 +01:00
|
|
|
|
|
2026-02-03 13:23:00 -08:00
|
|
|
|
精确的 skill 列表开销公式参见 [Skills](/tools/skills)。
|