第004期_类OpenClaw应用模型配置完全指南-从入门到精通
在国产的各类“龙虾”应用(如OpenClaw、LobsterAI、AutoClaw、ArkClaw、Linclaw等)中配置新模型,核心都是修改配置文件。这些应用普遍遵循 OpenAI API 格式 标准,因此配置逻辑高度统一。本文整合了多份权威资料,为你提供一份从零基础到高级自定义的完整操作手册,涵盖 DeepSeek、智谱AI(GLM)、硅基流动、OpenRouter 四大主流平台的详细配置实例,并汇总了所有关键的避坑细节,确保你一次配置成功。
一、预备知识:配置文件在哪里?
所有龙虾类应用的模型配置都集中在 openclaw.json 文件中。在进行任何操作前,请先找到它。
| 操作系统 | 配置文件路径(默认) |
|---|---|
| Windows | C:\Users\<你的用户名>\.openclaw\openclaw.json |
| macOS / Linux | ~/.openclaw/openclaw.json |
| Docker / 云服务器 | 进入容器后,执行 cat ~/.openclaw/openclaw.json 查看具体位置 |
💡 提示:如果文件不存在,请先运行一次
openclaw onboard命令完成初始化配置,文件会自动生成。
二、两种配置方法:新手与高手的路径
方法一:交互式配置向导(新手首选,零代码)
这是最简单、最安全的方法,通过命令行问答式引导快速完成配置。
-
打开终端(Windows用PowerShell,macOS/Linux用Terminal)。
-
执行核心命令:
openclaw onboard。 -
按照终端提示逐步操作:
-
选择配置模式:推荐
QuickStart(快速开始)。 -
选择模型提供商:向导会列出主流服务商(如智谱AI、硅基流动),直接选择即可。
-
输入API Key:粘贴你从对应平台官网获取的密钥。
-
选择具体模型:如
glm-4-flash、deepseek-chat等。 -
完成后续配置:按提示设置通讯渠道等,配置结束后应用会自动重启。
-
-
如果向导中没有你想要的模型(如OpenRouter),可以选择
Skip for now跳过,然后使用方法二手动添加。
方法二:手动编辑配置文件(高级用户,全模型支持)
通过直接修改 openclaw.json,你可以实现精细的模型管理,如同时添加多个模型、设置备用模型自动切换等。
1. 配置前的安全准备
-
备份原文件:将
openclaw.json复制一份,例如命名为openclaw.json.bak。这是防止配置错误导致服务无法恢复的最佳习惯。 -
使用专业编辑器:强烈建议使用 VS Code 或 Notepad++ 等支持JSON语法高亮和校验的编辑器。VS Code会用红色波浪线直观地标出语法错误,避免因一个多余逗号导致整个应用无法启动。
2. 通用配置结构(核心必读)
所有模型配置都添加在 models.providers 对象下。核心结构如下:
json
{ “models”: { “mode”: “merge”, // 保持merge,表示将新模型合并到现有模型列表,不覆盖原有配置 “providers”: { // 在这里添加你的新模型提供商配置(如 deepseek, zhipu 等) “提供商ID”: { “baseUrl”: “模型API接口地址”, // 注意末尾不加 / “apiKey”: “你的API_Key”, // 或使用环境变量 “${YOUR_API_KEY}” “api”: “openai-completions”, // 99%的国产模型为此值 “models”: [ // 该提供商下的模型列表 { “id”: “模型官方唯一ID”, // 必须与官方文档完全一致 “name”: “模型自定义显示名称”, “reasoning”: false, // 推理模型设为true,普通模型为false “input”: [“text”], // 多模态模型可添加 “image” “contextWindow”: 128000, // 模型上下文长度(token数) “maxTokens”: 8192 // 单次回复最大token数 } ] } } }, “agents”: { “defaults”: { “model”: { “primary”: “提供商ID/模型ID”, // 设置默认使用的主模型 “fallbacks”: [] // 可选,主模型不可用时的备用模型列表 } } } }
三、四大主流模型配置实例(直接可用)
请将下面代码块中的 "你的API_Key" 替换为你从各平台获取的真实API Key。你可以将多个实例组合添加至同一配置文件,实现多模型切换。
1️⃣ 配置 DeepSeek 模型(国内直连,推荐首选)
DeepSeek 官方API完全兼容OpenAI格式,配置最为简单,国内可直连。
- API Key申请:DeepSeek开放平台(密钥以
sk-开头)
json
“deepseek”: { “baseUrl”: “https://api.deepseek.com/v1”, “apiKey”: “你的DeepSeek_API_Key”, “api”: “openai-completions”, “models”: [ { “id”: “deepseek-chat”, “name”: “DeepSeek V3”, “reasoning”: false, “input”: [“text”], “contextWindow”: 128000, “maxTokens”: 8192 }, { “id”: “deepseek-reasoner”, “name”: “DeepSeek R1 (推理模式)”, “reasoning”: true, // 关键:推理模型必须设为true “input”: [“text”], “contextWindow”: 128000, “maxTokens”: 32768 } ] }
- 默认模型:
"primary": "deepseek/deepseek-chat"
2️⃣ 配置智谱AI (GLM) 模型(国内生态,支持多模态)
智谱AI提供标准的OpenAI兼容接口,生态适配好,支持多模态模型。
- API Key申请:智谱AI开放平台
json
“zhipu”: { “baseUrl”: “https://open.bigmodel.cn/api/paas/v4”, “apiKey”: “你的智谱_API_Key”, “api”: “openai-completions”, “models”: [ { “id”: “glm-4-flash”, “name”: “GLM-4-Flash (快速版)”, “reasoning”: false, “input”: [“text”], “contextWindow”: 128000, “maxTokens”: 8192 }, { “id”: “glm-4-plus”, “name”: “GLM-4-Plus (标准版)”, “reasoning”: false, “input”: [“text”], “contextWindow”: 128000, “maxTokens”: 8192 }, { “id”: “glm-4v-plus”, “name”: “GLM-4V-Plus (多模态版)”, “reasoning”: false, “input”: [“text”, “image”], // 支持图文输入 “contextWindow”: 128000, “maxTokens”: 8192 } ] }
- 默认模型:
"primary": "zhipu/glm-4-flash"
3️⃣ 配置硅基流动 (SiliconFlow) 模型(国内聚合平台,上百款模型)
硅基流动聚合了众多开源模型,配置时模型ID需要按平台规范填写,一次配置多模型可用。
-
API Key申请:硅基流动官网(密钥以
sk-开头) -
关键要求:
models.id必须从平台「模型广场」复制完整格式(作者/模型名),不可手动编写。
json
“siliconflow”: { “baseUrl”: “https://api.siliconflow.cn/v1”, // 必须包含 /v1 “apiKey”: “你的硅基流动_API_Key”, “api”: “openai-completions”, “models”: [ { “id”: “deepseek-ai/DeepSeek-V3.2”, // 格式:作者/模型名 “name”: “SiliconFlow-DeepSeek V3.2”, “reasoning”: false, “input”: [“text”], “contextWindow”: 200000, “maxTokens”: 8192 }, { “id”: “Qwen/Qwen2.5-72B-Instruct”, “name”: “SiliconFlow-Qwen2.5 72B”, “reasoning”: false, “input”: [“text”], “contextWindow”: 128000, “maxTokens”: 4096 }, { “id”: “THUDM/glm-4-9b-chat”, “name”: “SiliconFlow-GLM-4 9B”, “reasoning”: false, “input”: [“text”], “contextWindow”: 32768, “maxTokens”: 4096 } ] }
- 默认模型:
"primary": "siliconflow/deepseek-ai/DeepSeek-V3.2"
4️⃣ 配置 OpenRouter 模型(全球聚合网关,支持Claude/GPT)
OpenRouter 是一个全球模型聚合网关,一个API Key可以调用Claude、GPT、Gemini等全球主流模型。
-
API Key申请:OpenRouter官网(密钥以
sk-or-开头,支持支付宝充值) -
网络要求:国内服务器必须配置合规的境外代理,否则会被墙或超时。
json
“openrouter”: { “baseUrl”: “https://openrouter.ai/api/v1”, “apiKey”: “你的OpenRouter_API_Key”, “api”: “openai-completions”, “models”: [ { “id”: “anthropic/claude-sonnet-4-5”, “name”: “Claude Sonnet 4.5”, “reasoning”: false, “input”: [“text”], “contextWindow”: 200000, “maxTokens”: 8192 }, { “id”: “openai/gpt-4o-mini”, “name”: “GPT-4o Mini”, “reasoning”: false, “input”: [“text”], “contextWindow”: 128000, “maxTokens”: 8192 }, { “id”: “google/gemini-2.0-flash-exp”, “name”: “Gemini 2.0 Flash”, “reasoning”: false, “input”: [“text”], “contextWindow”: 128000, “maxTokens”: 4096 } ] }
- 默认模型:
"primary": "openrouter/anthropic/claude-sonnet-4-5"
5️⃣ 多模型组合配置(主模型+备用模型,生产环境推荐)
将上述多个模型配置组合添加至同一 openclaw.json,并设置 fallbacks 备用模型列表,主模型不可用时自动切换,大幅提升服务稳定性。
json
{ “models”: { “mode”: “merge”, “providers”: { “deepseek”: { … }, // 直接复制DeepSeek完整配置 “zhipu”: { … }, // 直接复制智谱AI完整配置 “siliconflow”: { … } // 直接复制硅基流动完整配置 } }, “agents”: { “defaults”: { “model”: { “primary”: “deepseek/deepseek-chat”, // 主模型 “fallbacks”: [ // 备用模型列表,按顺序尝试 “zhipu/glm-4-flash”, “siliconflow/deepseek-ai/DeepSeek-V3.2” ] } } } }
四、完整可直接复用的 openclaw.json 模板
整合了DeepSeek、智谱AI、硅基流动、OpenRouter四大模型的全量配置模板。你只需替换其中的API Key即可直接使用。不用的模型可直接删除对应的段落。
json
{ “models”: { “mode”: “merge”, “providers”: { “deepseek”: { “baseUrl”: “https://api.deepseek.com/v1”, “apiKey”: “这里填你的DeepSeek API Key”, “api”: “openai-completions”, “models”: [ { “id”: “deepseek-chat”, “name”: “DeepSeek-V3”, “contextWindow”: 128000, “maxTokens”: 8192 }, { “id”: “deepseek-reasoner”, “name”: “DeepSeek-R1”, “contextWindow”: 128000, “maxTokens”: 8192 } ] }, “zhipu”: { “baseUrl”: “https://open.bigmodel.cn/api/paas/v4”, “apiKey”: “这里填你的智谱API Key”, “api”: “openai-completions”, “models”: [ { “id”: “glm-4-flash”, “name”: “GLM-4-Flash”, “contextWindow”: 128000, “maxTokens”: 8192 }, { “id”: “glm-4-plus”, “name”: “GLM-4-Plus”, “contextWindow”: 128000, “maxTokens”: 8192 } ] }, “siliconflow”: { “baseUrl”: “https://api.siliconflow.cn/v1”, “apiKey”: “这里填你的硅基流动API Key”, “api”: “openai-completions”, “models”: [ { “id”: “deepseek-ai/DeepSeek-V3.2”, “name”: “硅基-DeepSeek-V3.2”, “contextWindow”: 200000, “maxTokens”: 8192 }, { “id”: “THUDM/glm-4-9b-chat”, “name”: “硅基-GLM-4-9B”, “contextWindow”: 32768, “maxTokens”: 4096 } ] }, “openrouter”: { “baseUrl”: “https://openrouter.ai/api/v1”, “apiKey”: “这里填你的OpenRouter API Key”, “api”: “openai-completions”, “models”: [ { “id”: “anthropic/claude-sonnet-4-5”, “name”: “Claude Sonnet 4.5”, “contextWindow”: 200000, “maxTokens”: 8192 }, { “id”: “openai/gpt-4o-mini”, “name”: “GPT-4o Mini”, “contextWindow”: 128000, “maxTokens”: 8192 } ] } } }, “agents”: { “defaults”: { “model”: { “primary”: “deepseek/deepseek-chat”, “fallbacks”: [ “zhipu/glm-4-flash”, “siliconflow/deepseek-ai/DeepSeek-V3.2” ] } } }, “gateway”: { “host”: “127.0.0.1”, “port”: 18789 } }
五、保存与生效:最后的关键一步
-
填写Key:将上述模板中所有
“这里填你的... API Key”替换为你的真实密钥。 -
保存文件:
Ctrl + S保存。 -
重启服务:这是最关键的一步!必须在终端运行命令重启网关,新配置才会被加载:
bash
openclaw gateway restart
-
验证配置:
-
运行
openclaw doctor进行诊断。 -
或运行
openclaw models list查看当前可用的模型列表,确认新增模型状态是否为connected。 -
打开浏览器访问
http://127.0.0.1:18789,发送一条测试消息(如“你好,用的什么模型?”),回复中包含模型名称,即配置成功。
-
六、核心注意事项与避坑指南(必读)
1. 安全与费用(核心重点)
-
严禁硬编码:切勿将API Key直接写在配置文件中并提交到公开代码仓库。API Key泄露可能导致账户被盗刷,产生高额费用。
-
推荐使用环境变量:
-
在系统或
.env文件中设置变量,如export DEEPSEEK_API_KEY="sk-xxx"。 -
在配置文件中通过
"apiKey": "${DEEPSEEK_API_KEY}"引用。
-
-
防盗刷:若Key不慎泄露,立即在平台官网作废并重新申请。
2. 参数细节(决定成败)
-
baseUrl格式:-
末尾不加 /:例如
https://api.deepseek.com/v1/是错的,正确是https://api.deepseek.com/v1。 -
版本号:DeepSeek、硅基流动、OpenRouter必须包含
/v1;智谱AI必须包含/api/paas/v4。
-
-
reasoning参数:只有明确使用深度推理模型(如deepseek-reasoner)时才设为true。普通对话模型(如glm-4-flash)若设为true,会导致返回空响应或报错。 -
模型ID:必须与平台官方文档中的ID完全一致(区分大小写和斜杠)。硅基流动和OpenRouter的ID格式为
提供商/模型名,少写一个字符都会报错。
3. 网络与服务器地域
-
国内模型(DeepSeek、智谱AI、硅基流动):国内服务器/本地可直连,无需代理,优先选择国内云服务器部署。
-
国外模型(OpenRouter、Claude、GPT):国内服务器会被墙或超时,必须选择中国香港/新加坡/美国等海外服务器,或使用合规的境外代理。
-
若同时配置国内+国外模型,建议将服务部署在海外服务器(如新加坡),确保所有模型均可正常调用。
4. JSON语法严格要求
-
逗号问题:
providers下的不同服务商之间必须用逗号,隔开。最后一个服务商后面不能有逗号。 -
引号问题:所有Key和Value必须用双引号
"包裹,不能用单引号。 -
工具辅助:强烈建议使用VS Code编辑,它会用红色波浪线直接告诉你哪里写错了。
七、常见报错与排错方案
| 报错信息 | 核心原因 | 解决方案 |
|---|---|---|
| 401 Unauthorized | API Key错误、未设置环境变量或密钥过期。 | 1. 核对API Key是否复制完整。2. 如果使用环境变量,确认变量名和引用格式 "${VAR_NAME}" 是否正确。3. 重新申请新的API Key。 |
| 404 Not Found | baseUrl 地址错误,或模型ID不存在于该端点。 |
1. 检查baseUrl是否按示例填写(如是否包含/v1)。2. 确认模型ID是否从官方文档准确复制。 |
| Model not found | 默认模型名称拼写错误,或未在providers中定义。 |
检查 agents.defaults.model.primary 中的 “提供商ID/模型ID” 是否与 providers 下的配置对象名称和模型ID完全匹配。 |
| Connection Timeout / 超时 | 网络不通。 | 1. 如果是调用国外服务(如OpenRouter),国内服务器需配置合规代理或使用海外服务器。2. 优先使用国内服务商(DeepSeek、智谱、硅基流动)以保障连接稳定性。 |
| 应用无法启动 | JSON语法错误(多余逗号、引号、括号错误)。 | 1. 用VS Code打开文件,修复所有红色波浪线标注的错误。2. 对比本文的通用配置结构,逐项检查语法问题。 |
| 模型返回空响应 | reasoning 参数错误地设为 true。 |
将 reasoning 改为 false,保存后重启服务。 |
八、参数速查表(快速参考)
| 参数 | 核心说明 | 通用示例值 | 特殊要求 |
|---|---|---|---|
| baseUrl | 模型API接口地址 | https://api.deepseek.com/v1 |
末尾不加/,硅基/OpenRouter带/v1 |
| apiKey | 平台申请的访问密钥 | sk-xxx 或 ${DEEPSEEK_API_KEY} |
支持环境变量引用,不同平台格式不同 |
| api | API协议类型 | openai-completions |
国产模型默认值,原生Claude用anthropic-messages |
| id | 模型官方唯一标识符 | deepseek-chat / glm-4-flash |
硅基/OpenRouter为「提供商/模型名」格式 |
| reasoning | 是否为推理模型 | false / true |
普通模型必设false,推理模型设true |
| input | 模型输入类型 | [“text”] / [“text”,“image”] |
多模态模型需添加“image” |
| contextWindow | 模型上下文长度(token) | 128000 / 200000 |
按平台官方参数填写 |
| maxTokens | 单次回复最大token数 | 4096 / 8192 |
按平台官方参数填写 |
| primary | 默认主模型 | deepseek/deepseek-chat |
格式为「提供商ID/模型ID」 |
| fallbacks | 备用模型列表 | [“zhipu/glm-4-flash”, …] |
多个模型用逗号分隔,格式同primary |
按照以上步骤和实例配置,你就可以在自己的“龙虾应用”中自由配置和使用各类AI模型了。如果遇到问题,请先使用 openclaw doctor 命令进行诊断,它通常会给出明确的错误提示。