📋 第一部分:准备工作
1. 硬件要求
根据你的内存大小,可以选择合适的模型:
8GB内存:推荐使用qwen2.5:4b版本,适用于基础对话和轻量使用场景
16GB内存:推荐使用qwen2.5:7b版本,这是性能均衡的推荐配置
32GB及以上内存:可以考虑qwen2.5:14b或qwen3.5:35b版本,适合处理复杂任务和深度推理
GPU方面,如果你有NVIDIA显卡并安装CUDA驱动,可以启用GPU加速提升运行速度。如果没有独立显卡,则使用CPU运行,但速度会相对较慢。
2. 软件要求
⚙️ 第二部分:安装核心环境
步骤 1:打开终端
大多数Linux发行版快捷键为 Ctrl + Alt + T。
步骤 2:更新系统并安装基础依赖
# Debian/Ubuntu 系列sudo apt update && sudo apt upgrade -ysudo apt install -y curl git build-essential# CentOS/RHEL/Fedora 系列sudo dnf update -ysudo dnf install -y curl git gcc-c++ make
步骤 3:安装 Node.js
OpenClaw需要Node.js 22或更高版本:
# 使用NodeSource官方源安装Node.js 22curl -fsSL https://deb.nodesource.com/setup_22.x | sudo -E bash -sudo apt install -y nodejs # Ubuntu/Debian# 验证安装node --version # 应显示 v22.x.x 或更高npm --version # 应显示 10.x.x 或更高
步骤 4:安装PM2(可选,用于进程管理)
🤖 第三部分:部署本地模型 (Ollama + Qwen)
步骤 1:安装 Ollama
Ollama是在Linux上运行本地模型最简单的方式:
# 使用官方安装脚本curl -fsSL https://ollama.com/install.sh | sh# 启动Ollama服务sudo systemctl enable --now ollama# 验证服务状态systemctl status ollama
步骤 2:选择并下载 Qwen 模型
根据你的Linux服务器配置选择合适的模型:
# 选项1:qwen2.5:4b(适合8GB内存,约2.5GB)ollama pull qwen2.5:4b# 选项2:qwen2.5:7b(推荐,16GB内存,约4.0GB)ollama pull qwen2.5:7b# 选项3:qwen2.5:14b(适合32GB+内存,约8.0GB)ollama pull qwen2.5:14b# 选项4:最新Qwen3.5(适合高端配置)ollama pull qwen3.5:7b
⏱️ 下载时间:取决于网络速度,7B模型约需10-30分钟。
步骤 3:测试模型是否可用
# 运行模型测试对话ollama run qwen2.5:7b# 输入"你好",如果模型有回复# 输入 /bye 退出对话
步骤 4:验证Ollama API端点
OpenClaw需要通过API连接Ollama:
# 检查API是否可用curl http://localhost:11434/v1/models# 应返回包含你下载的模型列表的JSON响应
⚠️ 关键步骤:创建长上下文模型(非常重要!)
OpenClaw需要较长的上下文窗口才能完成复杂任务。Ollama默认上下文较短,我们需要创建一个自定义模型:
# 1. 创建Modelfile配置文件cat > ~/Modelfile << EOFFROM qwen2.5:7bPARAMETER num_ctx 32768PARAMETER temperature 0.7PARAMETER top_p 0.9EOF# 注意:如果你下载的是其他模型,请将上面的qwen2.5:7b替换为你的模型名# 2. 创建自定义模型ollama create qwen2.5-7b-claw -f ~/Modelfile# 3. 验证新模型ollama list # 应该能看到 qwen2.5-7b-claw# 4. 清理临时文件rm ~/Modelfile
🚀 第四部分:安装与配置 OpenClaw
步骤 1:一键安装 OpenClaw
OpenClaw提供了官方Linux安装脚本:
# 使用官方安装脚本(推荐)curl -fsSL https://openclaw.ai/install.sh | bash# 验证安装openclaw --version # 应显示 2026.x.x 或更高
npm install -g openclaw@latest
步骤 2:初始化配置向导
openclaw onboard --install-daemon
你会看到一个交互式配置界面,请按照以下指引操作:
风险提示 (I understand this is powerful...):输入 Yes 回车
初始化模式 (Installation mode):选择 QuickStart(快速开始)
选择模型提供商 (Choose a model provider):选择 Custom Provider 或 OpenAI Compatible
配置自定义提供商:
配置聊天平台 (Do you want to set up a chat platform now?):选择 Skip for now 跳过
安装技能 (Do you want to install skills now?):选择 No(稍后手动安装)
步骤 3:启动服务并生成令牌
# 启动网关服务openclaw gateway start# 查看服务状态openclaw gateway status # 应显示 "Gateway running"# 生成访问令牌openclaw token generate# 查看令牌(复制备用)cat ~/.openclaw/openclaw.json | grep '"token"' | awk -F'"' '{print $4}'
步骤 4:防火墙配置(服务器部署必备)
如果是在云服务器上部署,需要放行OpenClaw端口:
# 使用UFW(Ubuntu默认)sudo apt install ufw -y # 如果未安装sudo ufw allow 22/tcp # SSH端口sudo ufw allow 18789/tcp # OpenClaw核心端口sudo ufw enablesudo ufw status# 使用firewalld(CentOS/RHEL)sudo firewall-cmd --permanent --add-port=18789/tcpsudo firewall-cmd --reload
步骤 5:打开控制台
# 本地访问openclaw dashboard# 或者在浏览器中手动访问:# http://localhost:18789/?token=你的Token# (远程服务器请将localhost替换为服务器IP)
🛠️ 第五部分:安装常用技能(Skills)
OpenClaw的真正威力来自于技能扩展。以下是几个必备技能:
1. 网页浏览技能
openclaw plugins install @openclaw/agent-browser
2. 文件系统操作技能
openclaw plugins install @openclaw/agent-fs
3. 命令执行技能(谨慎使用)
openclaw plugins install @openclaw/agent-exec
4. 网页搜索技能(需要Tavily API密钥)
# 先注册Tavily获取API Key:https://www.tavily.com/openclaw plugins install @openclaw/agent-searchopenclaw config set tavily.apiKey "你的TAVILY_API_KEY"
查看已安装技能
📊 第六部分:Linux服务器优化配置
1. 配置Swap分区(内存不足时启用)
# 创建2GB Swap文件sudo fallocate -l 2G /swapfilesudo chmod 600 /swapfilesudo mkswap /swapfilesudo swapon /swapfile# 永久生效echo '/swapfile none swap sw 0 0' | sudo tee -a /etc/fstab
2. 使用PM2管理OpenClaw进程(服务器部署推荐)
# 安装PM2sudo npm install -g pm2# 使用PM2启动OpenClawpm2 start $(which openclaw) --name "openclaw" -- gateway start# 设置开机自启pm2 savepm2 startup
3. Nginx反向代理配置(如需域名访问)
# /etc/nginx/sites-available/openclawserver { listen 80; server_name your-domain.com; location / { proxy_pass http://localhost:18789; proxy_set_header Host $host; proxy_set_header X-Real-IP $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; proxy_set_header X-Forwarded-Proto $scheme; }}
4. 配置系统资源限制
# /etc/security/limits.conf 添加以下内容openclaw soft nofile 65535openclaw hard nofile 65535
✅ 第七部分:验证与使用
1. 基本功能测试
在OpenClaw网页聊天框中输入:
用agent-browser技能访问百度首页,并总结一下页面主要内容。
如果Qwen模型开始"思考"并执行操作,说明部署成功!
2. 常用排查命令
# 查看整体状态openclaw doctor# 查看实时日志openclaw logs follow# 重启服务openclaw gateway restart# 停止服务openclaw gateway stop# 重新配置openclaw config
3. 检查Ollama服务状态
# 查看Ollama日志journalctl -u ollama -f# 测试Ollama APIcurl http://localhost:11434/v1/models
🔧 第八部分:常见问题排查
问题1:模型不存在或404
现象:OpenClaw提示模型不存在解决:检查模型名称是否完全一致
# 查看已安装模型ollama list# 确认配置中的模型名与上面显示的完全一致cat ~/.openclaw/config.json | grep model
问题2:Ollama连接被拒绝
现象:OpenClaw无法连接到Ollama解决:确保Ollama服务正在运行
# 检查Ollama状态systemctl status ollama# 如果未运行,启动服务sudo systemctl start ollama# 测试连接curl http://localhost:11434/api/tags
问题3:内存不足/服务崩溃
现象:OpenClaw运行一段时间后崩溃,日志提示"out of memory"解决:增加内存或使用更小的模型
# 查看内存使用情况free -h# 切换到4b模型ollama pull qwen2.5:4bollama create qwen2.5-4b-claw -f ~/Modelfileopenclaw config set model qwen2.5-4b-claw
问题4:端口被占用
现象:启动服务时提示端口18789已被使用解决:查找并结束占用进程
# 查找占用端口的进程sudo lsof -i :18789# 结束该进程(替换PID为实际进程号)sudo kill -9 <PID># 或修改OpenClaw默认端口openclaw config set port 18790
问题5:权限不足
现象:执行命令时出现"Permission denied"解决:添加执行权限
chmod +x ~/.openclaw/scripts/*
问题6:安装脚本执行失败
现象:curl安装脚本失败解决:重试或使用npm安装
# 重试curl -fsSL https://openclaw.ai/install.sh | bash# 或使用npmnpm install -g openclaw@latest
问题7:技能安装失败
现象:openclaw plugins install 失败解决:检查网络连接或手动安装
# 检查网络ping github.com# 设置代理(如需)export http_proxy="http://你的代理:端口"export https_proxy="http://你的代理:端口"
📊 模型性能参考(Linux服务器)
qwen2.5:4b版本
内存需求:4-6GB
GPU显存:4GB
CPU推理速度:⚡⚡⚡ 较快
适用场景:基础对话、轻量任务
qwen2.5:7b版本
内存需求:8-12GB
GPU显存:6GB
CPU推理速度:⚡⚡ 中等
适用场景:通用推荐、多技能并行
qwen2.5:14b版本
内存需求:16-20GB
GPU显存:10GB
CPU推理速度:⚡ 较慢
适用场景:复杂推理、长文本处理
qwen3.5:35b版本
内存需求:32GB以上
GPU显存:24GB
CPU推理速度:🐢 慢
适用场景:专业级任务、深度分析
📝 第九部分:系统服务管理(生产环境)
创建Systemd服务(推荐生产环境)
# 创建OpenClaw服务文件sudo cat > /etc/systemd/system/openclaw.service << EOF[Unit]Description=OpenClaw AI Agent ServiceAfter=network.target ollama.serviceWants=ollama.service[Service]Type=simpleUser=$USERExecStart=$(which openclaw) gateway startRestart=alwaysRestartSec=10Environment=NODE_ENV=productionStandardOutput=journalStandardError=journal[Install]WantedBy=multi-user.targetEOF# 重新加载systemd并启用服务sudo systemctl daemon-reloadsudo systemctl enable openclawsudo systemctl start openclaw# 查看状态sudo systemctl status openclaw
监控脚本
#!/bin/bash# /usr/local/bin/monitor-openclaw.shif ! systemctl is-active --quiet openclaw; then echo "$(date): OpenClaw is down, restarting..." >> /var/log/openclaw-monitor.log sudo systemctl restart openclawfiif ! systemctl is-active --quiet ollama; then echo "$(date): Ollama is down, restarting..." >> /var/log/openclaw-monitor.log sudo systemctl restart ollamafi
添加定时任务:crontab -e
*/5 * * * * /usr/local/bin/monitor-openclaw.sh
🎉 第十部分:完成!
恭喜!你现在已经在Linux上成功部署了完全本地化、隐私安全的OpenClaw + Qwen智能助手。
访问信息汇总
控制台地址:http://你的服务器IP:18789/?token=你的Token
本地访问:http://localhost:18789/?token=你的Token
API端点:http://localhost:11434/v1 (Ollama API)
常用命令速查
openclaw dashboard:打开控制台
openclaw gateway status:查看服务状态
openclaw logs follow:查看实时日志
openclaw plugins list:列出已安装技能
ollama list:列出已下载模型
sudo systemctl status openclaw:查看系统服务状态
安全建议
不要暴露端口到公网:如必须远程访问,使用SSH隧道或VPN
定期更新:openclaw update 或 npm update -g openclaw
备份配置:cp -r ~/.openclaw ~/.openclaw.backup
定期更换Token:openclaw token generate
现在,开始享受你的私有AI智能体吧! 🚀