OpenClaw作为一款完全本地运行的开源AI助手,最大的魅力在于“完全属于你”。它不依赖任何云端服务,所有数据、模型、对话都在你的设备上完成。更重要的是,它把复杂的配置门槛降到极低——即使是零基础用户,也能通过修改一个核心配置文件/app/clawdbot.json,实现模型切换、通道接入、代理设置、默认Agent调整等高级功能。
很多人以为“改配置文件”听起来很吓人,其实OpenClaw的clawdbot.json设计得非常人性化:结构清晰、字段命名直白、注释丰富,新手照着示例改几行就能看到效果。本文将手把手带你从零开始,定位文件、理解结构、修改关键项、验证效果,全程配图文代码和避坑提示,让你彻底打消“零基础不敢动配置”的顾虑。

文章导航
一、OpenClaw配置文件到底在哪里?
无论你是用Docker部署、一键脚本安装,还是手动源码运行,OpenClaw的配置文件位置都是固定的:
| 部署方式 | 配置文件宿主机路径 | 容器内路径 | 访问建议方式 |
|---|---|---|---|
| Docker(官方推荐) | ~/.clawdbot/clawdbot.json |
/app/.clawdbot/clawdbot.json |
直接在宿主机用VSCode/记事本编辑 |
| 一键脚本安装(install.sh) | /root/.clawdbot/clawdbot.json |
无容器,直接宿主机路径 | 用nano/vim或图形化编辑器打开 |
| 源码手动部署 | 项目根目录下的clawdbot.json |
根据实际挂载路径 | 推荐复制到~/.clawdbot/统一管理 |
最常见的情况是Docker部署,此时宿主机的~/.clawdbot/clawdbot.json会自动映射到容器内/app/.clawdbot/clawdbot.json,你修改宿主机文件后,只需重载或重启容器即可生效。
快速进入容器查看确认:
docker exec -it clawdbot bash
cd /app/.clawdbot
ls -la
你会看到clawdbot.json就在这里。
二、clawdbot.json整体结构一目了然
打开文件后,你会看到一个标准的JSON结构,主要分为四大块:
{
"models": { ... }, // 模型配置:决定用哪个大模型
"channels": { ... }, // 通信通道:Telegram、Matrix、WhatsApp等
"agents": { ... }, // Agent默认设置:工具调用、记忆策略等
"system": { ... } // 系统级设置:日志、代理、端口等(部分版本有)
}
三、零基础最常改的4大核心配置项
| 配置块 | 字段路径 | 作用说明 | 推荐值/示例 | 修改难度 | 零基础建议 |
|---|---|---|---|---|---|
| models | models.providers.minimax.baseUrl | MiniMax国内模型地址 | “https://api.minimaxi.com/v1” | ★☆☆☆☆ | 首选国内模型必改 |
| models | models.providers.minimax.apiKey | MiniMax API Key | “sk-your-real-key” | ★☆☆☆☆ | 直接粘贴即可 |
| models | agents.defaults.model.primary | 默认使用的模型ID | “minimax/m2.1-large” | ★★☆☆☆ | 决定日常聊天模型 |
| channels | channels.telegram.enabled | 是否开启Telegram通道 | true | ★☆☆☆☆ | 想用Telegram必开 |
| channels | channels.telegram.botToken | Telegram Bot Token | “123456789:AAF…” | ★☆☆☆☆ | 从@BotFather获取 |
| channels | channels.telegram.proxy | 国内访问Telegram代理(可选) | “socks5://127.0.0.1:7890” | ★★☆☆☆ | 国内用户强烈推荐 |
| models | models.providers.ollama.baseUrl | 本地Ollama地址(完全免费本地模型) | “http://host.docker.internal:11434/v1” | ★★★☆☆ | 隐私党首选 |
| system | system.proxy | 全局HTTP/SOCKS代理(影响所有外网请求) | “http://127.0.0.1:7890” | ★★☆☆☆ | 国内网络环境必备 |
四、零基础修改实操:一步步来,配代码
场景1:切换到国内MiniMax模型(最常见需求)
- 打开
~/.clawdbot/clawdbot.json(宿主机路径) - 找到
models块,修改或新增以下内容:
"models": {
"mode": "merge",
"providers": {
"minimax": {
"baseUrl": "https://api.minimaxi.com/v1",
"apiKey": "sk-你的MiniMax密钥",
"api": "openai-responses",
"models": [
{
"id": "m2.1-large",
"name": "MiniMax M2.1 Large"
},
{
"id": "m2.1-max",
"name": "MiniMax M2.1 Max"
}
]
}
}
},
"agents": {
"defaults": {
"model": {
"primary": "minimax/m2.1-large"
}
}
}
- 保存文件
- 重载配置(推荐方式,不用重启容器):
docker exec -it clawdbot clawdbot models reload
# 或者直接重启容器
docker restart clawdbot
- 在Telegram或WebUI里问一句“你好”,如果回复流畅中文,即成功!
场景2:接入Telegram通道(国内用户必备代理)
在channels块添加或修改:
"channels": {
"telegram": {
"enabled": true,
"botToken": "你的Bot Token",
"dmPolicy": "pairing",
"groupPolicy": "allowlist",
"streamMode": "partial",
"proxy": "socks5://127.0.0.1:7890" // 你的Clash/V2ray代理地址
}
}
保存 → 重启容器 → 在Telegram找你的Bot发送消息 → 按提示配对码批准即可。
场景3:完全本地模型(Ollama + Qwen3)
先确保宿主机已运行ollama serve并拉取模型:
ollama pull qwen3:4b-instruct
然后在配置文件添加:
"models": {
"providers": {
"ollama": {
"baseUrl": "http://host.docker.internal:11434/v1",
"apiKey": "ollama",
"api": "openai-responses",
"models": [
{
"id": "qwen3:4b-instruct",
"name": "本地Qwen3-4B"
}
]
}
}
},
"agents": {
"defaults": {
"model": {
"primary": "ollama/qwen3:4b-instruct"
}
}
}
五、修改后如何验证是否生效?
- 查看模型列表:
docker exec -it clawdbot clawdbot models list
看到你配置的模型且有default标签即成功。
- 查看通道状态:
docker exec -it clawdbot clawdbot channels status
- 最直接:在WebUI或Telegram里直接问“当前使用什么模型?”,ClawdBot会老实告诉你。
六、零基础常见坑&避坑指南
| 症状 | 原因 | 解决方案 |
|---|---|---|
| 修改后没效果 | 忘记保存/路径错了/没重载 | 确认宿主机路径正确 → clawdbot models reload |
| Telegram一直显示offline | 没加代理或代理地址错 | 检查proxy字段格式,socks5://IP:端口 |
| 模型返回“invalid api key” | MiniMax密钥填错或没加sk-前缀 | 去MiniMax平台重新复制完整密钥 |
| 容器重启后配置丢失 | 没正确挂载卷 | 启动命令必须包含 -v ~/.clawdbot:/app/.clawdbot |
| JSON格式错误导致启动失败 | 多了逗号或引号不匹配 | 用在线JSON校验工具(如jsonlint.com)检查 |
七、进阶玩法:配置一次,受益终身
一旦你熟悉了clawdbot.json,就可以解锁更多可能:
- 多模型路由:配置多个provider,WebUI下拉框自由切换
- 全局代理:
"system": {"proxy": "http://127.0.0.1:7890"}让所有外网请求走代理 - 自定义Agent:为不同场景设置专用模型和工具链
- 长期记忆增强:调整
agents.defaults.memory参数,保存更多历史对话
结语
OpenClaw把“改配置”这件事从“技术活”变成了“复制粘贴+改几行”的简单操作。零基础用户完全不需要懂JSON语法、Docker原理,只要跟着本文表格和代码一步步来,就能轻松把OpenClaw调教成最符合自己需求的私人AI助手。
现在就打开你的clawdbot.json,试着改第一行——你会发现,原来“自己动手定制AI”真的这么简单。祝你玩得开心!
延展阅读:
知识库支持多少种文件格式?结构化数据处理耗时多久?Excal/Markdown/JSON黄金三角+LoRA微调提速65%,15分钟/GB入库实战揭秘!