很多人第一次接触 OpenClaw,会先问“哪个模型最强”。真正更重要的问题其实是:“我应该把什么任务交给什么模型来跑?”
01 模型提供商总览
OpenClaw 的模型配置非常自由,这也是它最大的优势之一。
| 提供商 | 代表模型 | 输入价格 / 1M tokens | 输出价格 / 1M tokens | 适合场景 |
|---|---|---|---|---|
| Anthropic | Claude Sonnet 4.6 | $3.00 | $15.00 | Agent 主力 |
| OpenAI | GPT-5.4 | $2.50 | $15.00 | 通用旗舰 |
| Gemini 3 Pro | $2.00 | $12.00 | 多模态、长上下文 | |
| DeepSeek | DeepSeek-V3.2.2 | $0.14 | $0.28 | 极致低价 |
| 智谱 | GLM-5 | $0.80 | $2.56 | 国产代码强项 |
| 通义 | Qwen 3.5 Max | $1.20 | $6.00 | 中文与代码 |
| 豆包 | Seed 2.0 Pro | $0.47 | $2.37 | 低成本批量任务 |
| Kimi | Kimi K2.5 | $0.60 | $3.00 | 中文 Agent |
| MiniMax | M2.5 | $0.50 | $2.00 | 性价比高 |
| Ollama / LM Studio | 本地模型 | 免费 | 免费 | 隐私 / 零 API 成本 |
02 配置的三个核心概念
OpenClaw 的模型配置看起来多,但核心就三个概念。
1. 内置 Provider
像 Anthropic、OpenAI、Google、智谱这类,通常直接填 API Key 就能用。
2. 自定义 Provider
像 DeepSeek、豆包、Kimi、MiniMax、SiliconFlow 这类,通常需要你手动在 models.providers 里补配置。
3. Fallback
主模型失败时自动切换到备用模型。这不只是“兜底机制”,也是最核心的省钱机制。
示例:
{
"env": {
"DEEPSEEK_API_KEY": "sk-xxx"
},
"agents": {
"defaults": {
"model": {
"primary": "anthropic/claude-sonnet-4-6",
"fallbacks": [
"anthropic/claude-haiku-4-5",
"deepseek/deepseek-chat"
]
}
}
},
"models": {
"mode": "merge",
"providers": {}
}
}models.mode: "merge" 很关键。否则你自定义的配置可能覆盖掉内置 Provider。
03 国际模型怎么选
Anthropic Claude
Claude 是非常适合做 Agent 主力的模型。
| 模型 | 适合定位 |
|---|---|
| Claude Opus 4.6 | 复杂推理、难任务 |
| Claude Sonnet 4.6 | 主力日常使用 |
| Claude Haiku 4.5 | 轻量低成本 |
配置方式:
ANTHROPIC_API_KEY=sk-ant-xxx要注意的一点是:Anthropic 已经不再鼓励你通过 OAuth 方式接入订阅账号,稳定做法是走 API Key。
OpenAI GPT
OpenAI 更偏“通用旗舰”,适合你已经有现成 OpenAI 账户和配额时使用。
OPENAI_API_KEY=sk-xxx需要注意长上下文价格变化,特别是超长上下文输入时成本会明显抬升。
Google Gemini
Gemini 的优势主要在:
- 超长上下文
- 多模态
- Flash 版本免费额度较友好
因此它非常适合:
- 心跳任务
- 定时任务
- 轻量型低成本调用
GOOGLE_API_KEY=xxx04 国产模型怎么配
DeepSeek:最典型的性价比路线
{
"env": {
"DEEPSEEK_API_KEY": "sk-xxx"
},
"models": {
"mode": "merge",
"providers": {
"deepseek": {
"baseUrl": "https://api.deepseek.com/v1",
"apiKey": "${DEEPSEEK_API_KEY}",
"api": "openai-completions",
"models": [
{ "id": "deepseek-chat", "contextWindow": 128000, "maxTokens": 8192 }
]
}
}
}
}这里的建议也很明确:DeepSeek 很便宜,但别当唯一 Provider,用 Fallback 兜住高峰期的不稳定。
GLM:国产代码能力代表
智谱的优点是 OpenClaw 已有内置支持,配置门槛很低。
openclaw onboard --auth-choice zai-api-key对很多中文用户来说,GLM-5 + DeepSeek 是一套很自然的搭配。
Qwen、豆包、Kimi、MiniMax
这几家大致可以这样理解:
Qwen:中文能力均衡,Qwen3.5-Coder 很适合代码场景豆包:低价位选择多Kimi:长上下文与中文表达有优势MiniMax:代码能力与性价比都比较亮眼
百度文心
对百度这条路线更适合保守看待:能用,但接入复杂度相对高,如果你没有百度云生态的硬绑定,不一定是第一选择。
05 聚合平台与 Coding Plan
聚合平台
如果你不想直接分别管理很多 API Key,聚合平台会省很多事。
SiliconFlow
国内很常见,一套 API Key 接多个开源模型。
OpenRouter
国际平台里最常见,但要接受平台费。
one-api / new-api
适合团队或自建统一网关场景。
这里有个很关键的兼容性提醒:中转服务最好支持 Responses API,而不只是老的 Chat Completions API。
Coding Plan
国内厂商和云平台常见的 Coding Plan 套餐,本质上就是“包月模型用量包”。
粗略理解:
首月体验:阿里云、腾讯云、火山引擎通常都很便宜长期性价比:MiniMax、云平台续费活动、DeepSeek 低价 API 都值得看重度用户:别只看包月,频率限制也要看
06 本地模型:免费、隐私、但吃硬件
Ollama
ollama pull qwen2.5:32b
ollama pull deepseek-r1:14b{
"env": {
"OLLAMA_API_KEY": "ollama-local"
}
}这里要特别注意:不要强行走 /v1 兼容接口,让 OpenClaw 直接用原生 Ollama API 更稳。
LM Studio
如果你更喜欢 GUI,本地调试模型时 LM Studio 会更顺手,创始人本人也把它当过本地后端。
配置示例:
{
"models": {
"mode": "merge",
"providers": {
"lmstudio": {
"baseUrl": "http://127.0.0.1:1234/v1",
"apiKey": "lm-studio",
"api": "openai-responses",
"models": [
{ "id": "model-name", "contextWindow": 32768, "maxTokens": 8192 }
]
}
}
}
}本地模型推荐
| 模型 | 推荐场景 | 建议内存 |
|---|---|---|
| Qwen3.5-Coder:32B | 代码与 Agent 工具调用 | 32 GB RAM |
| Devstral-24B | Agent / 工具任务 | 32 GB RAM |
| DeepSeek-R1:14B | 推理任务 | 16 GB RAM |
| Llama 3.3 | 通用任务 | 16 到 64 GB RAM |
07 五套推荐方案
方案一:极致省钱
- 主力:DeepSeek-V3.2
- 备选:Qwen 3.5 Plus
- 心跳:GLM Flash 免费版
- 适合:学习、实验、轻量日常
方案二:国产性价比
- 主力:GLM-5
- 备选:DeepSeek-V3.2
- 推理增强:Kimi K2.5
- 适合:中文用户、国内场景
方案三:国际平衡
- 主力:Claude Sonnet 4.6
- 轻量:Claude Haiku 或 Gemini Flash
- 适合:追求 Agent 效果
方案四:混合最优
- 复杂任务:Claude Sonnet
- 日常任务:DeepSeek-V3.2
- 心跳 / Cron:Gemini Flash 或本地 Ollama
- Fallback:Sonnet -> Haiku -> DeepSeek
这也是最推荐、也最现实的一套路线。
方案五:完全免费
- 本地 Ollama + Qwen3.5-Coder / Devstral
- 或免费 API 组合
适合隐私敏感、实验型场景,但不要对复杂 Agent 任务期待过高。