在 2026 年,本地大模型部署已经成为许多开发者和 AI 爱好者的日常需求。OpenClaw 作为一个完全本地化、可控性极强的个人 AI 助手,凭借其开箱即用、工具链完整以及对隐私的绝对保护,迅速成为 Windows 用户的首选方案。而 WSL2(Windows Subsystem for Linux 2)则是 Windows 平台上运行 OpenClaw 的最佳环境——它既能充分利用 NVIDIA GPU 加速,又能提供原生的 Linux 生态,同时对 GUI 界面的访问控制也非常灵活。
本文将手把手带你从零开始,在 WSL2 中完整部署 OpenClaw,重点解决最容易踩坑的 GUI 端口映射问题,确保你能安全、稳定地在 Windows 浏览器中访问 OpenClaw 的 Web 控制台。全文基于最新版 OpenClaw ,全程实测于 Windows 11 + RTX 40 系列显卡环境。

文章导航
OpenClaw 是什么?为什么值得你花时间部署
OpenClaw 是一个真正“属于你自己”的本地 AI 助手:
- 所有推理、对话、记忆、工具调用全部在本地完成,不上传任何数据;
- 支持 vLLM 高性能后端,可流畅运行 Qwen3-4B、Qwen3-8B、Llama3.1-8B 等主流开源模型;
- 内置多通道支持(WebUI、Telegram、Discord、可扩展插件);
- 自带持久化工作区、长期记忆管理、工具调用框架(天气、汇率、维基、OCR、语音转写等);
- 配置全部明文 JSON,可版本控制、可深度定制。
相比其他方案,OpenClaw 的最大优势在于“控制权完全回归用户”。你决定模型跑在哪里、数据存在哪里、界面谁能访问。它不是一个简单的聊天窗口,而是一个可扩展的本地 AI 操作系统。
为什么选择 WSL2 而不是 Docker Desktop 或原生 Windows
在 Windows 上部署本地 AI,有三种常见路径:
| 方案 | GPU 支持 | Linux 生态兼容性 | GUI 访问控制 | 资源隔离 | 推荐指数 |
|---|---|---|---|---|---|
| 原生 Windows | 差 | 差 | 一般 | 一般 | ★☆☆☆☆ |
| Docker Desktop | 好 | 一般(有容器层开销) | 一般 | 好 | ★★★☆☆ |
| WSL2 | 极好 | 原生 | 优秀 | 优秀 | ★★★★★ |
WSL2 的优势显而易见:
– NVIDIA 官方深度支持 CUDA on WSL,vLLM 可直接调用 GPU;
– 无 Docker 容器层抽象损耗,性能接近原生 Linux;
– 网络独立,可精确控制端口映射,避免局域网意外暴露;
– 资源占用可控,关闭实例即释放内存和 GPU。
第一步:WSL2 环境准备(三步到位)
1. 启用 WSL2 并安装 Ubuntu
以管理员身份打开 PowerShell,依次执行:
dism.exe /online /enable-feature /featurename:Microsoft-Windows-Subsystem-Linux /all /norestart
dism.exe /online /enable-feature /featurename:VirtualMachinePlatform /all /norestart
重启电脑后,继续执行:
wsl --set-default-version 2
然后在 Microsoft Store 搜索并安装 Ubuntu 22.04 LTS(推荐,兼容性最佳)。首次启动会要求设置用户名和密码。
2. 配置 NVIDIA GPU 支持(必须!否则无法加速)
进入 Ubuntu 终端,添加 NVIDIA 官方容器工具包源:
curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg
curl -fsSL https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list | \
sed 's#deb https://#deb [arch=amd64] https://#g' | \
sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list
sudo apt-get update
sudo apt-get install -y nvidia-container-toolkit
验证 GPU 是否可见:
nvidia-smi
应显示你的显卡信息(如 RTX 4060、驱动版本 550+)。如果提示 command not found,请确保 Windows 已启用“开发者选项”中的 WSL GUI 支持。
3. 安装 Python 环境(推荐 pyenv + Poetry)
curl https://pyenv.run | bash
export PYENV_ROOT="$HOME/.pyenv"
export PATH="$PYENV_ROOT/bin:$PATH"
eval "$(pyenv init -)"
echo 'export PYENV_ROOT="$HOME/.pyenv"' >> ~/.bashrc
echo 'export PATH="$PYENV_ROOT/bin:$PATH"' >> ~/.bashrc
echo 'eval "$(pyenv init -)"' >> ~/.bashrc
source ~/.bashrc
pyenv install 3.11.9
pyenv global 3.11.9
pip install --upgrade pip poetry
第二步:部署 OpenClaw 本体
1. 克隆源码并安装
git clone https://github.com/openclaw/openclaw.git ~/openclaw
cd ~/openclaw
# 全局安装CLI(Node.js环境,替代原poetry流程)
npm install -g .
# 或安装最新稳定版
npm install -g openclaw@latest
2. 初始化配置
# 启动配置向导,自动生成配置文件并完成环境初始化
openclaw onboard
# 如需后台守护进程,可附加参数
openclaw onboard --install-daemon
会在 ~/.openclaw/openclaw.json 生成默认配置文件。
3. 启动 vLLM 后端(以 Qwen3-4B-Instruct 为例)
先安装 vLLM:
pip install vllm
下载模型(推荐使用 Hugging Face CLI 或直接从网页下载):
huggingface-cli download Qwen/Qwen3-4B-Instruct --local-dir ~/models/Qwen3-4B-Instruct
后台启动 vLLM:
nohup vllm serve ~/models/Qwen3-4B-Instruct \
--host 0.0.0.0 \
--port 8000 \
--dtype bfloat16 \
--gpu-memory-utilization 0.9 \
--enable-prefix-caching > vllm.log 2>&1 &
验证:
curl http://localhost:8000/v1/models
4. 配置 OpenClaw 对接 vLLM
编辑 ~/.openclaw/openclaw.json,关键部分如下:
{
"models": {
"mode": "merge",
"providers": {
"vllm": {
"baseUrl": "http://localhost:8000/v1",
"apiKey": "sk-local",
"api": "openai-responses",
"models": [
{
"id": "Qwen3-4B-Instruct",
"name": "Qwen3-4B-Instruct"
}
]
}
}
},
"agents": {
"defaults": {
"model": {
"primary": "vllm/Qwen3-4B-Instruct"
}
}
}
}
验证模型可用:
openclaw models list
第三步:GUI 端口映射详解与避坑指南(重点!)
OpenClaw 的 Web 控制台(Gradio 界面)默认监听 127.0.0.1:7860,这是 WSL2 内部地址,Windows 主机无法直接访问。以下提供三种方案,由推荐到次推荐排序。
方案一:SSH 端口转发(最推荐,安全、稳定、无需防火墙规则)
在 Windows PowerShell(不要在 WSL 内运行)执行:
ssh -N -L 7860:127.0.0.1:7860 $env:USERNAME@localhost -p 22
首次会要求确认主机密钥,输入 yes 即可。此命令会建立一条本地隧道:Windows 的 localhost:7860 → WSL2 的 127.0.0.1:7860。
保持窗口开着,然后在 WSL 中启动 Dashboard:
openclaw dashboard
输出类似:
Dashboard URL: http://127.0.0.1:7860/?token=xxxxxx
此时在 Windows 浏览器打开 http://localhost:7860/?token=xxxxxx 即可访问。
避坑要点:
– 如果提示“Connection refused”,检查 WSL 是否已启用 SSH 服务(Ubuntu 默认已安装 openssh-server);
– token 有效期 24 小时,过期后重新运行 openclaw dashboard 获取新链接;
– 想后台运行?使用 Windows Task Scheduler 或 PowerShell 脚本自动启动 ssh 命令。
方案二:netsh interface portproxy(适合长期固定映射)
在 Windows 管理员 PowerShell 中执行:
# 先获取当前 WSL2 IP(每次重启可能变化)
$wsl_ip = wsl hostname -I
netsh interface portproxy add v4tov4 listenport=7860 listenaddress=0.0.0.0 connectport=7860 connectaddress=$wsl_ip
然后在 WSL 中将 Gradio 绑定到 0.0.0.0(修改 openclaw 启动参数或配置文件),即可通过 Windows 的 localhost:7860 访问。
避坑要点:
– WSL2 重启后 IP 会变,需要重新执行命令。可写成脚本自动化;
– 这种方式会暴露到局域网,建议配合 Windows 防火墙只允许本地连接。
方案三:WSLg / X11 转发(适合需要图形交互的场景)
WSL2 默认支持 WSLg,可直接在 Windows 运行 Linux GUI 程序。但 OpenClaw 的 Gradio 仍是 Web 服务器,推荐结合方案一使用。
端口映射方案对比表
| 方案 | 安全性 | 稳定性 | 是否受 WSL IP 变化影响 | 是否需要保持窗口 | 推荐场景 |
|---|---|---|---|---|---|
| SSH 转发 | 高 | 高 | 否 | 是 | 日常使用(首选) |
| netsh portproxy | 中 | 中 | 是 | 否 | 长期固定服务 |
| 直接暴露 WSL IP | 低 | 高 | 是 | 否 | 仅限可信内网调试 |
第四步:首次访问与设备授权
打开 WebUI 后会提示“等待设备授权”。这是 OpenClaw 的安全机制。
在 WSL 终端执行:
openclaw devices list
openclaw devices approve <ID>
刷新页面即可进入主界面。后续同一浏览器不再需要重复授权。
第五步:常见问题与避坑总结
| 问题现象 | 可能原因 | 解决方案 |
|---|---|---|
| WebUI 打不开,显示空白 | vLLM 未启动或端口不对 | 检查 clawdbot models list 是否报错 |
| token 失效,提示 unauthorized | token 超过 24 小时 | 重新运行 clawdbot dashboard 获取新链接 |
| SSH 转发失败,Connection refused | WSL 未安装 openssh-server | sudo apt install openssh-server |
| GPU 未被识别,nvidia-smi 失败 | 驱动或容器工具包未正确安装 | 重新执行 NVIDIA 容器工具包安装步骤 |
| 模型加载极慢 | 首次加载未启用缓存 | 添加 --enable-prefix-caching 参数 |
| WSL2 启动后 IP 变化导致映射失效 | 正常现象 | 使用 SSH 转发方案(不受 IP 影响) |
第六步:进阶优化建议
- 将常用命令写成 alias,放入
~/.bashrc:bash
alias openclaw-start='cd ~/openclaw && poetry shell && nohup vllm serve ... & openclaw dashboard'
alias openclaw-stop='pkill -f vllm; pkill -f openclaw' - 模型放在 Windows 盘符挂载路径(如
/mnt/d/models),避免 WSL ext4 虚拟盘 I/O 瓶颈。 - 开启自动启动:在 Windows 任务计划程序中添加启动 Ubuntu 并执行 claw-start 脚本。
- 尝试更大模型:Qwen3-8B、Llama3.1-8B,只需修改模型路径和显存利用率参数。
至此,你已经在 WSL2 中成功部署了一个完全本地、可控、高性能的 OpenClaw 个人 AI 助手。GUI 端口映射问题也已通过最安全的 SSH 转发方案彻底解决。
接下来,你可以尽情探索工具调用、长期记忆、工作区管理等高级功能,让 AI 真正成为你的生产力伙伴。
延展阅读:
大促电商客服外包:客户满意度会下降?天猫 TOP10 案例 + 避坑指南!
AI训练平台通常支持哪些机器学习模型?如何选择适合自己业务的模型?AWS/Azure/GCP/DeepSeek 对比!AI 训练平台模型选型避坑指南!