AI养龙虾指南:OpenClaw从入门到精通
6 / 98 min read

Part 6 : 配置模型与算力

很多人第一次接触 OpenClaw,会先问“哪个模型最强”。真正更重要的问题其实是:“我应该把什么任务交给什么模型来跑?”

01 模型提供商总览

OpenClaw 的模型配置非常自由,这也是它最大的优势之一。

提供商代表模型输入价格 / 1M tokens输出价格 / 1M tokens适合场景
AnthropicClaude Sonnet 4.6$3.00$15.00Agent 主力
OpenAIGPT-5.4$2.50$15.00通用旗舰
GoogleGemini 3 Pro$2.00$12.00多模态、长上下文
DeepSeekDeepSeek-V3.2.2$0.14$0.28极致低价
智谱GLM-5$0.80$2.56国产代码强项
通义Qwen 3.5 Max$1.20$6.00中文与代码
豆包Seed 2.0 Pro$0.47$2.37低成本批量任务
KimiKimi K2.5$0.60$3.00中文 Agent
MiniMaxM2.5$0.50$2.00性价比高
Ollama / LM Studio本地模型免费免费隐私 / 零 API 成本

02 配置的三个核心概念

OpenClaw 的模型配置看起来多,但核心就三个概念。

1. 内置 Provider

像 Anthropic、OpenAI、Google、智谱这类,通常直接填 API Key 就能用。

2. 自定义 Provider

像 DeepSeek、豆包、Kimi、MiniMax、SiliconFlow 这类,通常需要你手动在 models.providers 里补配置。

3. Fallback

主模型失败时自动切换到备用模型。这不只是“兜底机制”,也是最核心的省钱机制。

示例:

{
  "env": {
    "DEEPSEEK_API_KEY": "sk-xxx"
  },
  "agents": {
    "defaults": {
      "model": {
        "primary": "anthropic/claude-sonnet-4-6",
        "fallbacks": [
          "anthropic/claude-haiku-4-5",
          "deepseek/deepseek-chat"
        ]
      }
    }
  },
  "models": {
    "mode": "merge",
    "providers": {}
  }
}

models.mode: "merge" 很关键。否则你自定义的配置可能覆盖掉内置 Provider。

03 国际模型怎么选

Anthropic Claude

Claude 是非常适合做 Agent 主力的模型。

模型适合定位
Claude Opus 4.6复杂推理、难任务
Claude Sonnet 4.6主力日常使用
Claude Haiku 4.5轻量低成本

配置方式:

ANTHROPIC_API_KEY=sk-ant-xxx

要注意的一点是:Anthropic 已经不再鼓励你通过 OAuth 方式接入订阅账号,稳定做法是走 API Key。

OpenAI GPT

OpenAI 更偏“通用旗舰”,适合你已经有现成 OpenAI 账户和配额时使用。

OPENAI_API_KEY=sk-xxx

需要注意长上下文价格变化,特别是超长上下文输入时成本会明显抬升。

Google Gemini

Gemini 的优势主要在:

  • 超长上下文
  • 多模态
  • Flash 版本免费额度较友好

因此它非常适合:

  • 心跳任务
  • 定时任务
  • 轻量型低成本调用
GOOGLE_API_KEY=xxx

04 国产模型怎么配

DeepSeek:最典型的性价比路线

{
  "env": {
    "DEEPSEEK_API_KEY": "sk-xxx"
  },
  "models": {
    "mode": "merge",
    "providers": {
      "deepseek": {
        "baseUrl": "https://api.deepseek.com/v1",
        "apiKey": "${DEEPSEEK_API_KEY}",
        "api": "openai-completions",
        "models": [
          { "id": "deepseek-chat", "contextWindow": 128000, "maxTokens": 8192 }
        ]
      }
    }
  }
}

这里的建议也很明确:DeepSeek 很便宜,但别当唯一 Provider,用 Fallback 兜住高峰期的不稳定。

GLM:国产代码能力代表

智谱的优点是 OpenClaw 已有内置支持,配置门槛很低。

openclaw onboard --auth-choice zai-api-key

对很多中文用户来说,GLM-5 + DeepSeek 是一套很自然的搭配。

Qwen、豆包、Kimi、MiniMax

这几家大致可以这样理解:

  • Qwen:中文能力均衡,Qwen3.5-Coder 很适合代码场景
  • 豆包:低价位选择多
  • Kimi:长上下文与中文表达有优势
  • MiniMax:代码能力与性价比都比较亮眼

百度文心

对百度这条路线更适合保守看待:能用,但接入复杂度相对高,如果你没有百度云生态的硬绑定,不一定是第一选择。

05 聚合平台与 Coding Plan

聚合平台

如果你不想直接分别管理很多 API Key,聚合平台会省很多事。

SiliconFlow

国内很常见,一套 API Key 接多个开源模型。

OpenRouter

国际平台里最常见,但要接受平台费。

one-api / new-api

适合团队或自建统一网关场景。

这里有个很关键的兼容性提醒:中转服务最好支持 Responses API,而不只是老的 Chat Completions API。

Coding Plan

国内厂商和云平台常见的 Coding Plan 套餐,本质上就是“包月模型用量包”。

粗略理解:

  • 首月体验:阿里云、腾讯云、火山引擎通常都很便宜
  • 长期性价比:MiniMax、云平台续费活动、DeepSeek 低价 API 都值得看
  • 重度用户:别只看包月,频率限制也要看

06 本地模型:免费、隐私、但吃硬件

Ollama

ollama pull qwen2.5:32b
ollama pull deepseek-r1:14b
{
  "env": {
    "OLLAMA_API_KEY": "ollama-local"
  }
}

这里要特别注意:不要强行走 /v1 兼容接口,让 OpenClaw 直接用原生 Ollama API 更稳。

LM Studio

如果你更喜欢 GUI,本地调试模型时 LM Studio 会更顺手,创始人本人也把它当过本地后端。

配置示例:

{
  "models": {
    "mode": "merge",
    "providers": {
      "lmstudio": {
        "baseUrl": "http://127.0.0.1:1234/v1",
        "apiKey": "lm-studio",
        "api": "openai-responses",
        "models": [
          { "id": "model-name", "contextWindow": 32768, "maxTokens": 8192 }
        ]
      }
    }
  }
}

本地模型推荐

模型推荐场景建议内存
Qwen3.5-Coder:32B代码与 Agent 工具调用32 GB RAM
Devstral-24BAgent / 工具任务32 GB RAM
DeepSeek-R1:14B推理任务16 GB RAM
Llama 3.3通用任务16 到 64 GB RAM

07 五套推荐方案

方案一:极致省钱

  • 主力:DeepSeek-V3.2
  • 备选:Qwen 3.5 Plus
  • 心跳:GLM Flash 免费版
  • 适合:学习、实验、轻量日常

方案二:国产性价比

  • 主力:GLM-5
  • 备选:DeepSeek-V3.2
  • 推理增强:Kimi K2.5
  • 适合:中文用户、国内场景

方案三:国际平衡

  • 主力:Claude Sonnet 4.6
  • 轻量:Claude Haiku 或 Gemini Flash
  • 适合:追求 Agent 效果

方案四:混合最优

  • 复杂任务:Claude Sonnet
  • 日常任务:DeepSeek-V3.2
  • 心跳 / Cron:Gemini Flash 或本地 Ollama
  • Fallback:Sonnet -> Haiku -> DeepSeek

这也是最推荐、也最现实的一套路线。

方案五:完全免费

  • 本地 Ollama + Qwen3.5-Coder / Devstral
  • 或免费 API 组合

适合隐私敏感、实验型场景,但不要对复杂 Agent 任务期待过高。