1.8 KiB
1.8 KiB
read_when, summary, title, x-i18n
| read_when | summary | title | x-i18n | ||||||||||||||
|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
|
OpenClaw 支持的模型提供商(LLM) | 模型提供商快速入门 |
|
模型提供商
OpenClaw 可以使用多种 LLM 提供商。选择一个,完成认证,然后将默认模型设置为 provider/model 格式。
推荐:Venice(Venice AI)
Venice 是我们推荐的 Venice AI 配置方案,注重隐私优先的推理,并提供使用 Opus 处理最困难任务的选项。
- 默认:
venice/llama-3.3-70b - 综合最佳:
venice/claude-opus-45(Opus 仍然是最强的)
参见 Venice AI。
快速开始(两个步骤)
- 向提供商进行认证(通常通过
openclaw onboard)。 - 设置默认模型:
{
agents: { defaults: { model: { primary: "anthropic/claude-opus-4-5" } } },
}
支持的提供商(入门集合)
- OpenAI(API + Codex)
- Anthropic(API + Claude Code CLI)
- OpenRouter
- Vercel AI Gateway
- Moonshot AI(Kimi + Kimi Coding)
- Synthetic
- OpenCode Zen
- Z.AI
- GLM 模型
- MiniMax
- Venice(Venice AI)
- Amazon Bedrock
如需查看完整的提供商目录(xAI、Groq、Mistral 等)及高级配置,请参阅模型提供商。