Files
openclaw/docs/zh-CN/concepts/model-providers.md
2026-02-02 16:38:25 +01:00

318 lines
8.7 KiB
Markdown
Raw Blame History

This file contains ambiguous Unicode characters

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

---
read_when:
- 你需要按提供商查阅模型设置参考
- 你需要模型提供商的示例配置或 CLI 上手引导命令
summary: 模型提供商概览,包含示例配置和 CLI 流程
title: 模型提供商
x-i18n:
generated_at: "2026-02-01T20:23:13Z"
model: claude-opus-4-5
provider: pi
source_hash: b3940c91ce3aee3d701af7978284966a60ec8c669649cc4be48ba9472243e444
source_path: concepts/model-providers.md
workflow: 14
---
# 模型提供商
本页介绍 **LLM/模型提供商**(非 WhatsApp/Telegram 等聊天渠道)。
有关模型选择规则,请参见 [/concepts/models](/concepts/models)。
## 快速规则
- 模型引用使用 `provider/model` 格式(例如:`opencode/claude-opus-4-5`)。
- 如果设置了 `agents.defaults.models`,它将成为白名单。
- CLI 辅助命令:`openclaw onboard``openclaw models list``openclaw models set <provider/model>`
## 内置提供商pi-ai 目录)
OpenClaw 自带 piai 目录。这些提供商**无需**配置 `models.providers`;只需设置认证并选择模型即可。
### OpenAI
- 提供商:`openai`
- 认证:`OPENAI_API_KEY`
- 示例模型:`openai/gpt-5.2`
- CLI`openclaw onboard --auth-choice openai-api-key`
```json5
{
agents: { defaults: { model: { primary: "openai/gpt-5.2" } } },
}
```
### Anthropic
- 提供商:`anthropic`
- 认证:`ANTHROPIC_API_KEY``claude setup-token`
- 示例模型:`anthropic/claude-opus-4-5`
- CLI`openclaw onboard --auth-choice token`(粘贴 setup-token`openclaw models auth paste-token --provider anthropic`
```json5
{
agents: { defaults: { model: { primary: "anthropic/claude-opus-4-5" } } },
}
```
### OpenAI Code (Codex)
- 提供商:`openai-codex`
- 认证OAuth (ChatGPT)
- 示例模型:`openai-codex/gpt-5.2`
- CLI`openclaw onboard --auth-choice openai-codex``openclaw models auth login --provider openai-codex`
```json5
{
agents: { defaults: { model: { primary: "openai-codex/gpt-5.2" } } },
}
```
### OpenCode Zen
- 提供商:`opencode`
- 认证:`OPENCODE_API_KEY`(或 `OPENCODE_ZEN_API_KEY`
- 示例模型:`opencode/claude-opus-4-5`
- CLI`openclaw onboard --auth-choice opencode-zen`
```json5
{
agents: { defaults: { model: { primary: "opencode/claude-opus-4-5" } } },
}
```
### Google GeminiAPI 密钥)
- 提供商:`google`
- 认证:`GEMINI_API_KEY`
- 示例模型:`google/gemini-3-pro-preview`
- CLI`openclaw onboard --auth-choice gemini-api-key`
### Google Vertex、Antigravity 和 Gemini CLI
- 提供商:`google-vertex``google-antigravity``google-gemini-cli`
- 认证Vertex 使用 gcloud ADCAntigravity/Gemini CLI 使用各自的认证流程
- Antigravity OAuth 作为捆绑插件提供(`google-antigravity-auth`,默认禁用)。
- 启用:`openclaw plugins enable google-antigravity-auth`
- 登录:`openclaw models auth login --provider google-antigravity --set-default`
- Gemini CLI OAuth 作为捆绑插件提供(`google-gemini-cli-auth`,默认禁用)。
- 启用:`openclaw plugins enable google-gemini-cli-auth`
- 登录:`openclaw models auth login --provider google-gemini-cli --set-default`
- 注意:你**无需**将客户端 ID 或密钥粘贴到 `openclaw.json` 中。CLI 登录流程会将令牌存储在 Gateway 主机的认证配置文件中。
### Z.AI (GLM)
- 提供商:`zai`
- 认证:`ZAI_API_KEY`
- 示例模型:`zai/glm-4.7`
- CLI`openclaw onboard --auth-choice zai-api-key`
- 别名:`z.ai/*``z-ai/*` 会规范化为 `zai/*`
### Vercel AI Gateway
- 提供商:`vercel-ai-gateway`
- 认证:`AI_GATEWAY_API_KEY`
- 示例模型:`vercel-ai-gateway/anthropic/claude-opus-4.5`
- CLI`openclaw onboard --auth-choice ai-gateway-api-key`
### 其他内置提供商
- OpenRouter`openrouter``OPENROUTER_API_KEY`
- 示例模型:`openrouter/anthropic/claude-sonnet-4-5`
- xAI`xai``XAI_API_KEY`
- Groq`groq``GROQ_API_KEY`
- Cerebras`cerebras``CEREBRAS_API_KEY`
- Cerebras 上的 GLM 模型使用 ID `zai-glm-4.7``zai-glm-4.6`
- OpenAI 兼容的基础 URL`https://api.cerebras.ai/v1`
- Mistral`mistral``MISTRAL_API_KEY`
- GitHub Copilot`github-copilot``COPILOT_GITHUB_TOKEN` / `GH_TOKEN` / `GITHUB_TOKEN`
## 通过 `models.providers` 配置的提供商(自定义/基础 URL
使用 `models.providers`(或 `models.json`)添加**自定义**提供商或 OpenAI/Anthropic 兼容的代理。
### Moonshot AI (Kimi)
Moonshot 使用 OpenAI 兼容端点,因此将其配置为自定义提供商:
- 提供商:`moonshot`
- 认证:`MOONSHOT_API_KEY`
- 示例模型:`moonshot/kimi-k2.5`
- Kimi K2 模型 ID
{/_ moonshot-kimi-k2-model-refs:start _/}
- `moonshot/kimi-k2.5`
- `moonshot/kimi-k2-0905-preview`
- `moonshot/kimi-k2-turbo-preview`
- `moonshot/kimi-k2-thinking`
- `moonshot/kimi-k2-thinking-turbo`
{/_ moonshot-kimi-k2-model-refs:end _/}
```json5
{
agents: {
defaults: { model: { primary: "moonshot/kimi-k2.5" } },
},
models: {
mode: "merge",
providers: {
moonshot: {
baseUrl: "https://api.moonshot.ai/v1",
apiKey: "${MOONSHOT_API_KEY}",
api: "openai-completions",
models: [{ id: "kimi-k2.5", name: "Kimi K2.5" }],
},
},
},
}
```
### Kimi Coding
Kimi Coding 使用 Moonshot AI 的 Anthropic 兼容端点:
- 提供商:`kimi-coding`
- 认证:`KIMI_API_KEY`
- 示例模型:`kimi-coding/k2p5`
```json5
{
env: { KIMI_API_KEY: "sk-..." },
agents: {
defaults: { model: { primary: "kimi-coding/k2p5" } },
},
}
```
### Qwen OAuth免费版
Qwen 通过设备码流程提供对 Qwen Coder + Vision 的 OAuth 访问。
启用捆绑插件,然后登录:
```bash
openclaw plugins enable qwen-portal-auth
openclaw models auth login --provider qwen-portal --set-default
```
模型引用:
- `qwen-portal/coder-model`
- `qwen-portal/vision-model`
详见 [/providers/qwen](/providers/qwen) 了解设置详情和注意事项。
### Synthetic
Synthetic 在 `synthetic` 提供商下提供 Anthropic 兼容的模型:
- 提供商:`synthetic`
- 认证:`SYNTHETIC_API_KEY`
- 示例模型:`synthetic/hf:MiniMaxAI/MiniMax-M2.1`
- CLI`openclaw onboard --auth-choice synthetic-api-key`
```json5
{
agents: {
defaults: { model: { primary: "synthetic/hf:MiniMaxAI/MiniMax-M2.1" } },
},
models: {
mode: "merge",
providers: {
synthetic: {
baseUrl: "https://api.synthetic.new/anthropic",
apiKey: "${SYNTHETIC_API_KEY}",
api: "anthropic-messages",
models: [{ id: "hf:MiniMaxAI/MiniMax-M2.1", name: "MiniMax M2.1" }],
},
},
},
}
```
### MiniMax
MiniMax 通过 `models.providers` 配置,因为它使用自定义端点:
- MiniMaxAnthropic 兼容):`--auth-choice minimax-api`
- 认证:`MINIMAX_API_KEY`
详见 [/providers/minimax](/providers/minimax) 了解设置详情、模型选项和配置片段。
### Ollama
Ollama 是一个本地 LLM 运行时,提供 OpenAI 兼容的 API
- 提供商:`ollama`
- 认证:无需(本地服务器)
- 示例模型:`ollama/llama3.3`
- 安装https://ollama.ai
```bash
# 安装 Ollama然后拉取模型
ollama pull llama3.3
```
```json5
{
agents: {
defaults: { model: { primary: "ollama/llama3.3" } },
},
}
```
Ollama 在本地运行于 `http://127.0.0.1:11434/v1` 时会被自动检测。详见 [/providers/ollama](/providers/ollama) 了解模型推荐和自定义配置。
### 本地代理LM Studio、vLLM、LiteLLM 等)
示例OpenAI 兼容):
```json5
{
agents: {
defaults: {
model: { primary: "lmstudio/minimax-m2.1-gs32" },
models: { "lmstudio/minimax-m2.1-gs32": { alias: "Minimax" } },
},
},
models: {
providers: {
lmstudio: {
baseUrl: "http://localhost:1234/v1",
apiKey: "LMSTUDIO_KEY",
api: "openai-completions",
models: [
{
id: "minimax-m2.1-gs32",
name: "MiniMax M2.1",
reasoning: false,
input: ["text"],
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
contextWindow: 200000,
maxTokens: 8192,
},
],
},
},
},
}
```
注意事项:
- 对于自定义提供商,`reasoning``input``cost``contextWindow``maxTokens` 是可选的。
省略时OpenClaw 默认为:
- `reasoning: false`
- `input: ["text"]`
- `cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }`
- `contextWindow: 200000`
- `maxTokens: 8192`
- 建议:设置与你的代理/模型限制匹配的明确值。
## CLI 示例
```bash
openclaw onboard --auth-choice opencode-zen
openclaw models set opencode/claude-opus-4-5
openclaw models list
```
另请参见:[/gateway/configuration](/gateway/configuration) 了解完整的配置示例。