你是否曾经下载了一个开源AI项目,满心期待,却在“设备未授权”“页面无法访问”“权限拒绝”这些莫名其妙的提示上卡了半天?反复查文档、重启服务、刷新浏览器,最后还是放弃?OpenClaw 完全不一样。它是一个真正开箱即用的本地AI网关,前端有现代化控制台,后端直接用 vLLM 驱动模型,中间只隔着三条简单命令:devices list、approve、dashboard。这三条命令一气呵成,你就能在浏览器里和本地运行的 Qwen3-4B、Phi-3 或其他模型流畅对话,支持文件上传、历史导出、多轮上下文,完全离线、无需注册、无需云端。
OpenClaw 的核心设计理念是“把复杂留给自己,把简单留给用户”。它不要求你手动拉取 vLLM 镜像、不需要你写 systemd 服务、不需要你调 CUDA 环境变量。启动后,你只需要处理好设备授权,就能直接进入功能完整的 Dashboard,真正实现“一分钟从零到可用”。下面我们就用最清晰的步骤,带你把 devices、approve、dashboard 这三步一条线跑通。

文章导航
1. OpenClaw 是什么?为什么值得你立刻部署
OpenClaw 是一套完全本地化、可离线运行的 AI 网关系统,目标是把你的电脑(笔记本、NUC、树莓派、旧 Mac mini、甚至云服务器)变成一台随时待命的个人 AI 工作站。
它的核心能力来自内置的 vLLM 服务,默认搭载 Qwen3-4B-Instruct-2507 模型(约 4B 参数,195K 上下文长度),在 RTX 3060/4070 等消费级显卡上可稳定跑出 800ms 以内的推理延迟。你问它写代码、总结 PDF、分析数据、起草邮件,它都在本地完成,全程不联网、不上传日志、不留痕迹。
与市面上那些需要注册账号、绑定手机号、每天限额的在线 AI 不同,OpenClaw 没有中心化服务器,没有强制联网要求。你启动它,它就运行;你关掉终端,它就停止。数据100%留在你手里,权限100%由你掌控。
更重要的是,OpenClaw 把部署难度压到了历史最低。你只需要执行一条启动命令,然后处理三步授权,就能拥有一个带图形界面的完整 AI 控制台。这也是为什么它在技术社区迅速走红——简单、干净、可控。
2. 前置准备:一分钟完成环境就绪
在正式跑通三步之前,确保你的环境满足以下条件:
- 操作系统:Linux(推荐)、macOS、Windows(WSL2 也可)
- 硬件:至少 8GB 内存 + NVIDIA 显卡(推荐 8GB+ 显存)
- 软件:已安装 Docker(如果用官方二进制版则无需 Docker)
最简单的方式是直接使用官方预编译二进制(适用于大多数用户):
# 下载最新版(2026年2月最新版本)
curl -L https://github.com/clawdbot/clawdbot/releases/latest/download/clawdbot-linux-amd64 -o clawdbot
chmod +x clawdbot
# 启动服务
./clawdbot start
启动成功后,你会看到类似提示:
🦞 ClawdBot 2026.2.1-1 (a1b2c3d)
Gateway running on http://127.0.0.1:8000
Web UI preparing at http://localhost:7860
此时 Web UI 还无法直接打开,因为 ClawdBot 默认启用了设备授权机制——这正是我们接下来要跑通的三步。
3. OpenClaw 三步部署法:devices → approve → dashboard 一条线跑通
这三步必须严格按顺序执行,缺一不可。整个过程通常不超过 2 分钟。
3.1 第一步:列出待授权设备(clawdbot devices list)
打开终端(确保 OpenClaw 服务已在运行),输入:
clawdbot devices list
正常输出类似:
🦞 ClawdBot 2026.2.1-1 (a1b2c3d)
ID Status Last Seen IP Address User Agent
a1b2c3d4-e5f6-7890-g1h2-i3j4k5l6m7n8 pending 2026-02-01 14:22:33 127.0.0.1 Mozilla/5.0 ...
看到 Status 为 pending,说明你的浏览器访问请求已被 OpenClaw 捕获,正在等待授权。
小贴士:
– 如果列表为空,说明浏览器还没成功发起连接。请确认你已打开 http://localhost:7860(注意是 http 而非 https),并且没有被广告拦截插件阻断 WebSocket。
– pending 状态会保持 30 分钟,足够你完成后续操作。
3.2 第二步:批准设备(clawdbot devices approve [ID])
复制上一步输出的完整 ID(带横线的 UUID),执行:
clawdbot devices approve a1b2c3d4-e5f6-7890-g1h2-i3j4k5l6m7n8
成功后会返回:
🦞 ClawdBot 2026.2.1-1 (a1b2c3d)
Device approved.
You now have full access to the dashboard.
Dashboard is now fully accessible at http://localhost:7860
此时回到浏览器,按 Ctrl+R(或 Cmd+R)强制刷新页面,你将看到完整的 ClawdBot Dashboard 界面:左侧导航栏、顶部选项卡(Chat、Files、Models、Config)全部就位。
3.3 第三步:安全获取 Dashboard 链接(clawdbot dashboard)
前两步解决了“能不能访问”,第三步解决“如何安全访问”。ClawdBot 的 Web UI 默认只监听 127.0.0.1,且需要一次性 Token 才能进入。
执行:
clawdbot dashboard
输出类似:
🦞 ClawdBot 2026.2.1-1 (a1b2c3d)
Dashboard URL: http://127.0.0.1:7860/?token=23588143fd1588692851f6cbe9218ec6b874bb859e775762
If accessing remotely:
ssh -N -L 7860:127.0.0.1:7860 user@your-server-ip
Then open: http://localhost:7860/?token=23588143fd1588692851f6cbe9218ec6b874bb859e775762
关键信息:
– Token 有效期 24 小时,每次执行 dashboard 命令都会生成新 Token。
– 如果你在远程服务器部署,必须先建立 SSH 隧道,再在本地浏览器打开带 Token 的链接。
至此,devices → approve → dashboard 三步完整跑通,你已成功进入 ClawdBot 的图形化控制台。
4. 三步跑通后,你能立刻做些什么?
进入 Dashboard 后,你可以立即体验以下核心功能:
- Chat 页面:直接与本地模型对话,支持多轮上下文、代码高亮、Markdown 渲染
- Files 页面:上传 PDF、Word、Excel、图片,让模型直接阅读并总结
- Models 页面:一键切换已加载模型,或添加新模型
- Config 页面:调整温度、TopP、最大输出长度等参数
- History 页面:查看、搜索、导出全部聊天记录(支持 Markdown、JSON 格式)
5. 模型切换实战:三步之外的“加分项”
OpenClaw 默认加载 Qwen3-4B-Instruct-2507,但你完全可以轻松换成其他模型。
5.1 推荐方式:通过 Dashboard 图形化切换(最简单)
- 进入 Config → Models → Providers
- 点击 vLLM 提供商右侧的 Edit
- 在 models 数组中添加或修改模型 ID,例如:
{
"id": "Phi-3-mini-4K-instruct",
"name": "Phi-3 Mini (轻量本地)"
}
- 保存后回到 Chat 页面,下拉模型列表即可切换,新模型实时生效。
5.2 进阶方式:直接修改配置文件
配置文件路径(Docker 部署为容器内 /app/clawdbot.json,本地二进制为 ~/.clawdbot/clawdbot.json):
"models": {
"mode": "merge",
"providers": {
"vllm": {
"baseUrl": "http://localhost:8000/v1",
"apiKey": "sk-local",
"models": [
{"id": "Qwen3-4B-Instruct-2507", "name": "Qwen3-4B"},
{"id": "Phi-3-mini-4K-instruct", "name": "Phi-3 Mini"}
]
}
}
}
修改后执行:
clawdbot models list
看到新模型出现即可。
6. 常见问题与避坑表格(最容易卡住的 6 个点)
| 序号 | 问题现象 | 原因分析 | 一键解决方法 |
|---|---|---|---|
| 1 | devices list 为空 | 浏览器未成功连接 WebSocket | 确认访问 http://localhost:7860,关闭广告拦截插件,尝试隐身模式 |
| 2 | approve 后页面仍白屏 | 未强制刷新或 Token 未生效 | 按 Ctrl+R 强制刷新,或重新执行 clawdbot dashboard 获取新链接 |
| 3 | 聊天一直转圈无响应 | vLLM 未正常启动或显存不足 | 执行 clawdbot logs –tail 50 查看日志,换小模型或添加 “enforce_eager”: true |
| 4 | 远程服务器无法访问 Dashboard | 未建立 SSH 隧道或忘记带 Token | 先 ssh -N -L 7860:127.0.0.1:7860 user@ip,再打开带 ?token= 的链接 |
| 5 | 端口 7860 被占用 | 其他 Gradio 应用占用 | 执行 clawdbot dashboard –port 7861 使用新端口 |
| 6 | 模型列表有但切换后无反应 | 配置未保存或服务未重启 | 在 Dashboard 点击 Save,或执行 clawdbot restart |
7. 远程安全访问进阶:让 OpenClaw 7×24 小时在线
如果你把 OpenClaw 部署在云服务器或 NAS 上,想从任何地方安全访问:
- 执行 clawdbot dashboard 获取最新 Token 和 SSH 隧道命令
- 在本地电脑执行 SSH 隧道命令
- 在本地浏览器打开 http://localhost:7860/?token=xxxx
这样所有流量走加密 SSH 通道,无需在服务器上暴露任何端口,安全性极高。
8. 写在最后:你现在拥有了一个真正属于自己的 AI
通过 devices list → approve → dashboard 这三步,你已经完成了一次完整的本地 AI 基础设施搭建:
- 本地 vLLM 推理引擎,零云依赖
- 带严格权限控制的现代化 Web Dashboard
- 可自由切换的模型管理机制
- 安全的远程访问方案
- 完整的文件处理与历史导出能力
OpenClaw 的价值,不在于花哨的功能,而在于它把“拥有一个真正属于自己的 AI”这件事,变得前所未有的简单。从此以后,你再也不用担心隐私泄露、额度耗尽、服务宕机。你问,它答;你给文件,它总结;你让它写代码,它直接写——所有一切,都发生在你的机器上,由你完全掌控。
立即开始你的三步部署吧,devices、approve、dashboard 一条线跑通后,你会发现:原来本地 AI 助手,可以这么丝滑、这么可靠、这么自由。
延展阅读:
DeepSeek V3一夜爆火,性能真的吊打GPT-4o吗?DeepSeek V3的表现怎么样?