在2026年AI智能体快速发展的背景下,OpenClaw作为一款开源本地化AI助手,以其强大的自动化执行能力和高度可定制性迅速走红。不同于仅限于对话的聊天机器人,OpenClaw能够直接操作电脑文件系统、执行Shell命令、浏览网页,甚至跨平台管理消息。它可以成为你24小时在线的“龙虾”AI管家,真正实现“动手”自动化。
然而,许多用户在使用OpenClaw时依赖云端API(如OpenAI GPT、Claude、通义千问等),这带来了隐私泄露风险、API费用以及网络依赖问题。完全独立部署的核心在于:使用本地大语言模型(Local LLM)取代云端API,实现零外部依赖、数据完全本地化、离线可用。本文将详细讲解如何通过本地模型方案实现OpenClaw的完全独立部署,适合追求极致隐私和控制力的开发者与极客。

文章导航
为什么选择完全独立部署 + 本地模型?
完全独立部署有以下显著优势:
- 隐私安全:所有对话、记忆、文件操作均留在本地,无数据上传云端,避免敏感信息泄露。
- 零成本运行:无需支付API调用费用,一次性硬件投入即可长期使用。
- 离线可用:无需网络即可运行,适合无网环境或对延迟敏感的场景。
- 更高控制力:可自由选择模型、精细调优参数,甚至运行量化模型以适配低端硬件。
- 避免服务中断:不受云服务商政策、限流或停服影响。
缺点则是对硬件有一定要求,尤其是运行大模型需要足够的GPU显存。不过,随着模型量化和高效推理框架的成熟,即使消费级显卡也能流畅运行7B~13B参数模型。
硬件与系统准备
完全独立部署对硬件的最低要求:
| 配置类型 | 最低配置 | 推荐配置 | 适用模型规模 |
|---|---|---|---|
| CPU | 8核现代CPU | 12核以上 | 所有规模 |
| RAM | 16GB | 32GB+ | 13B+模型需更多 |
| GPU | 无(纯CPU推理) | NVIDIA RTX 3060 12GB+ | 7B~70B量化模型 |
| 存储 | 50GB SSD空闲 | 100GB+ NVMe SSD | 存储多个模型 |
| 操作系统 | macOS / Windows / Linux | Ubuntu 22.04 / Windows 11 | 全平台支持 |
如果你只有集成显卡或无GPU,可优先选择4bit量化的小模型(如Gemma-2-9B、Llama3-8B),推理速度仍可接受。
本地模型运行方案选择
OpenClaw本身不直接运行模型,而是通过OpenAI兼容API接口调用“后端大脑”。因此,完全独立部署的关键是将本地LLM服务暴露为OpenAI格式的API端点。主流方案有以下三种:
| 方案 | 代表工具 | 优点 | 缺点 | 推荐指数 |
|---|---|---|---|---|
| Ollama | Ollama | 安装最简单、一键拉取模型、原生OpenAI兼容 | 功能相对基础 | ★★★★★ |
| LM Studio | LM Studio | 图形化界面、易用、支持多种后端 | Windows/macOS为主 | ★★★★☆ |
| vLLM / llama.cpp | vLLM、llama.cpp、text-generation-webui | 高性能、支持超大模型、多卡并行 | 配置复杂 | ★★★★☆ |
本文以Ollama为主线讲解(最友好、最受欢迎),其他方案仅需替换API地址即可通用。
第一步:安装并启动Ollama
- 访问官网 https://ollama.com 下载对应系统安装包。
- 安装完成后打开终端(Linux/macOS)或命令提示符(Windows)。
- 拉取模型(推荐从7B~13B参数开始):
ollama pull llama3:8b # Meta Llama3 8B,综合性能最强
ollama pull phi3:medium # Microsoft Phi3 Medium,代码能力突出
ollama pull gemma2:9b # Google Gemma2 9B,轻量高效
ollama pull qwen2:7b # 阿里Qwen2 7B,中文理解最佳
- 运行模型并验证:
ollama run llama3:8b
进入交互界面,输入“Hello”测试响应正常后,按Ctrl+D退出。
- 启动OpenAI兼容API服务(关键一步):
ollama serve
保持此终端窗口运行,或将其设置为开机自启服务。默认API地址为 http://localhost:11434/v1。
第二步:本地安装OpenClaw
OpenClaw官方提供了极简的npm安装方式,支持Mac/Windows/Linux全平台。
- 确保已安装Node.js(v18+)和npm。
- 一键全局安装最新版:
npm install -g openclaw@latest
- 运行初始化向导:
openclaw onboard
向导会引导你完成基本设置,包括同意风险声明、选择快速模式等。
第三步:关键配置——连接本地模型
这是实现完全独立的核心步骤。
- 初始化完成后,OpenClaw会在用户目录创建配置文件:
- Linux/macOS:~/.openclaw/openclaw.json
- Windows:%USERPROFILE%.openclaw\openclaw.json
- 用文本编辑器打开该文件,找到llm配置段,修改为本地Ollama:
{
"llm": {
"provider": "openai",
"model": "llama3:8b", // 与ollama pull的模型名保持一致
"base_url": "http://localhost:11434/v1",
"api_key": "ollama" // Ollama默认可填任意值或留空
}
}
如果你使用其他工具:
– LM Studio:通常地址为 http://localhost:1234/v1
– vLLM:根据启动参数设定,如 http://localhost:8000/v1
- 保存后重启OpenClaw服务(如果已启动)。
第四步:启动网关与本地交互方式
完全独立部署建议仅使用本地Web界面,避免暴露任何外部通道。
- 启动网关(仅本地绑定):
openclaw gateway --port 18789 --host 127.0.0.1 --verbose
- 打开浏览器访问 http://localhost:18789
你将看到完整的Web聊天界面,可直接输入自然语言指令测试:
- “列出桌面所有文件”
- “帮我写一段Python爬虫代码并保存到桌面”
- “总结昨天的聊天记录”
由于模型完全本地,响应速度取决于你的硬件,RTX 4060运行Llama3-8B通常延迟在1~3秒,体验流畅。
第五步:可选本地消息通道(进阶)
如果你仍希望通过iMessage、Telegram等消息App交互,但保持完全本地:
- iMessage(Mac独占):安装imsg工具,配置数据库路径,本地配对即可,无需云端。
- Telegram/Discord:创建私人Bot,仅在本地网络使用,反向代理或本地隧道(如ngrok本地模式)避免公网暴露。
但为极致安全,推荐纯Web界面使用。
本地模型推荐与性能对比
以下是2026年常用开源模型在消费级硬件上的实测表现(RTX 4070 12GB参考):
| 模型名称 | 参数量 | 量化级别 | 中文能力 | 代码能力 | 推理速度(token/s) | 显存占用 | 推荐场景 |
|---|---|---|---|---|---|---|---|
| Llama3-8B-Instruct | 8B | 4bit | ★★★★☆ | ★★★★★ | 65~80 | ~6GB | 通用首选 |
| Qwen2-7B-Instruct | 7B | 4bit | ★★★★★ | ★★★★☆ | 70~85 | ~5GB | 中文任务最佳 |
| Phi3-Medium-128k | 14B | 4bit | ★★★★☆ | ★★★★★ | 45~55 | ~9GB | 代码与长上下文 |
| Gemma2-9B-Instruct | 9B | 4bit | ★★★★☆ | ★★★★☆ | 60~75 | ~7GB | 轻量高效 |
| Mistral-7B-Instruct | 7B | 4bit | ★★★★☆ | ★★★★☆ | 75~90 | ~5GB | 速度优先 |
可根据需求随时在Ollama中切换模型,只需修改openclaw.json中的model字段并重启。
安全与优化建议
即使完全本地部署,仍需注意:
- 网关绑定本地:始终使用–host 127.0.0.1,禁止0.0.0.0绑定。
- 启用Token认证:在配置文件中设置gateway.token,访问Web界面需携带Token。
- 最小权限运行:在专用用户账号或虚拟机中运行OpenClaw,避免root/admin权限。
- 定期备份记忆文件:记忆存储在本地JSON文件,建议定期备份。
- 模型更新:Ollama定期拉取最新版本,保持模型性能与安全补丁。
优化技巧:
– 使用GPU加速:安装CUDA驱动,确保Ollama检测到GPU。
– 多模型切换:在配置文件中准备多个llm profile,通过环境变量动态切换。
– 自定义技能:本地开发新Skill插件,进一步扩展功能(如集成本地数据库)。
常见问题解答
Q:本地模型响应比云端慢怎么办?
A:优先选择量化模型 + 高性能显卡;接受一定延迟换取隐私是本地部署的必然权衡。
Q:可以同时使用多个本地模型吗?
A:可以。启动多个Ollama实例不同端口,或使用LM Studio图形化切换。
Q:Windows用户Ollama安装失败?
A:建议使用官方MSI安装包,或通过WSL2安装Linux版Ollama。
Q:如何升级Moltbot?
A:运行 npm update -g openclaw@latest 即可。
通过以上步骤,你就拥有了一个完全独立、隐私安全、永不掉线的本地AI智能体。OpenClaw结合本地模型,不仅能完成日常自动化任务,还能在无网环境下持续为你服务。
立即动手搭建属于自己的“龙虾”AI管家吧!
延展阅读:
客服外包交接流程混乱?标准化onboarding如何实现7天快速部署0差错?告别交接混乱!7天0差错部署秘籍大公开