📋 第一部分:DeepSeek 模型与 OpenClaw 概述
DeepSeek 模型系列
• DeepSeek-R1:参数规模1.5B至671B,具备卓越的推理能力,数学和编程是强项,适用于复杂问题求解和代码生成
• DeepSeek-V3.2:参数规模671B,是最新全能模型,支持128K上下文,采用DSA注意力机制,适用于通用任务和长文档分析
• DeepSeek-V3.1:参数规模671B,支持混合思维模式,适用于需要思考与直答切换的任务
• DeepSeek-Coder:参数规模1.3B至236B,专注于编程领域,适用于代码辅助和开发工具
两种接入方式
• DeepSeek官方API:通过API调用云端模型,成本极低,适用于追求性能、不想占用本地资源的场景• 本地Ollama部署:完全本地运行,数据零泄露,适用于隐私优先、需要离线使用的场景硬件要求
• DeepSeek API:内存要求≥2GB,只需运行OpenClaw本身• 本地 R1:1.5B:内存要求≥8GB,入门级,模型大小约1.5GB• 本地 R1:7B:内存要求≥16GB,推荐配置,性能均衡• 本地 R1:14B:内存要求≥32GB,满足高性能需求• 本地 V3.2:内存要求≥256GB,全量版本,需服务器级配置⚙️ 第二部分:安装核心环境
步骤 1:打开终端
大多数Linux发行版快捷键为 Ctrl + Alt + T。
步骤 2:更新系统并安装基础依赖
# Debian/Ubuntu 系列sudo apt update && sudo apt upgrade -ysudo apt install -y curl git build-essential# CentOS/RHEL/Fedora 系列sudo dnf update -ysudo dnf install -y curl git gcc-c++ make
步骤 3:安装 Node.js 22+
OpenClaw需要Node.js 22或更高版本:# 使用NodeSource官方源安装Node.js 22curl -fsSL https://deb.nodesource.com/setup_22.x | sudo -E bash -sudo apt install -y nodejs # Ubuntu/Debian# 验证安装node --version # 应显示 v22.x.x 或更高npm --version # 应显示 10.x.x 或更高
步骤 4:配置npm国内镜像(可选,加速下载)
npm config set registry https://registry.npmmirror.com
🤖 第三部分:选择DeepSeek接入方式
选项A:使用DeepSeek官方API(推荐,成本最低)
3A.1 获取DeepSeek API Key
1.访问 DeepSeek开放平台
2.注册/登录账号(支持手机号、微信扫码)
3.进入"API Keys"页面,点击"创建API Key"
4.复制生成的密钥(以 sk- 开头)
3A.2 DeepSeek API 模型选择
• deepseek-chat:通用对话模型,适用于日常对话和通用任务• deepseek-reasoner:R1深度思考模型,适用于复杂推理、数学和编程任务
3A.3 API 基础信息
选项B:使用本地DeepSeek模型(完全免费、离线可用)
3B.1 安装Ollama
# 使用官方安装脚本curl -fsSL https://ollama.ai/install.sh | sh# 启动Ollama服务sudo systemctl enable --now ollama# 验证服务状态systemctl status ollama
3B.2 根据内存选择DeepSeek模型
# 入门级(8GB内存)ollama pull deepseek-r1:1.5b# 推荐配置(16GB内存)ollama pull deepseek-r1:7b# 高性能(32GB内存)ollama pull deepseek-r1:14b# 编程专用ollama pull deepseek-coder:6.7b# 如需V3系列(注意硬件要求极高)ollama pull deepseek-v3:671b # 需256GB+内存
3B.3 测试模型是否可用
# 运行模型测试对话ollama run deepseek-r1:7b "你好,请介绍一下自己"# 输入 /bye 退出对话
3B.4 验证Ollama API端点
# 检查API是否可用curl http://localhost:11434/v1/models
🚀 第四部分:安装与配置 OpenClaw
步骤 1:安装 OpenClaw
# 使用官方安装脚本[citation:1][citation:7]curl -fsSL https://openclaw.ai/install.sh | bash# 或使用npm安装(备选)npm install -g openclaw@latest# 验证安装openclaw --version # 应显示 2026.x.x 或更高
步骤 2:初始化配置
# 初始化工作空间openclaw init# 或者使用交互式向导(推荐新手)[citation:4]openclaw onboard --install-daemon
步骤 3:配置DeepSeek模型接入
场景1:配置DeepSeek官方API
在交互式配置中按以下指引操作:
1.选择配置模块:选择 Model
2.选择模型提供商:选择
Custom Provider (Any OpenAI or Anthropic compatible endpoint)
3.输入Base URL:输入 https://api.deepseek.com
4.输入API Key:输入你的DeepSeek API密钥(以sk-开头)
5.输入模型名称:输入 deepseek-chat 或 deepseek-reasoner
场景2:配置本地Ollama DeepSeek
如果使用本地Ollama,手动编辑配置文件:
# 编辑配置文件nano ~/.openclaw/config.json
{ "models": { "providers": { "ollama": { "baseUrl": "http://localhost:11434", "apiKey": "ollama", "api": "openai-completions", "models": [ { "id": "deepseek-r1:7b", "name": "DeepSeek R1 7B", "contextWindow": 32768, "maxTokens": 8192 } ] } } }, "agents": { "defaults": { "model": { "primary": "ollama/deepseek-r1:7b" } } }, "port": 18789, "token": "your-token-here"}
场景3:多模型配置(高级)
如需配置多个模型实现自动切换:
{ "models": { "providers": { "deepseek": { "baseUrl": "https://api.deepseek.com", "apiKey": "sk-你的-api-key", "api": "openai-completions", "models": [ { "id": "deepseek-chat", "name": "DeepSeek Chat", "contextWindow": 128000 }, { "id": "deepseek-reasoner", "name": "DeepSeek R1", "contextWindow": 64000 } ] }, "ollama": { "baseUrl": "http://localhost:11434", "apiKey": "ollama", "api": "openai-completions", "models": [ { "id": "deepseek-r1:7b", "name": "DeepSeek R1 Local", "contextWindow": 32768 } ] } } }, "agents": { "defaults": { "model": { "primary": "deepseek/deepseek-chat", "fallback": "ollama/deepseek-r1:7b" } } }}
步骤 4:启动OpenClaw服务
# 启动网关服务openclaw gateway start# 查看服务状态openclaw gateway status# 生成访问令牌(登录控制台用)openclaw token generate --admin
步骤 5:配置systemd服务(推荐生产环境)
# 创建systemd服务文件sudo tee /etc/systemd/system/openclaw.service << EOF[Unit]Description=OpenClaw Gateway Service (DeepSeek)After=network.target[Service]Type=simpleUser=$USERExecStart=$(which openclaw) gateway startRestart=on-failureRestartSec=10Environment=NODE_ENV=productionEnvironment=DEEPSEEK_API_KEY=你的-api-key[Install]WantedBy=multi-user.targetEOF# 启用并启动服务sudo systemctl daemon-reloadsudo systemctl enable openclawsudo systemctl start openclaw
步骤 6:防火墙配置(服务器部署)
# 放行OpenClaw端口sudo ufw allow 18789/tcpsudo ufw reload
🛠️ 第五部分:安装技能(Skills)
1. 查看可用技能
# 列出所有可用的技能openclaw skills list --eligible
2. 安装核心技能
# 网页浏览技能openclaw plugins install @openclaw/agent-browser# 文件系统操作技能openclaw plugins install @openclaw/agent-fs# 命令执行技能(谨慎使用)openclaw plugins install @openclaw/agent-exec# 网页搜索技能(需Tavily API)openclaw plugins install @openclaw/agent-search
3. 查看已安装技能
🖥️ 第六部分:访问与使用
1. 打开Web控制台
# 自动打开浏览器openclaw dashboard# 或手动访问:http://localhost:18789/?token=你的令牌
2. 测试DeepSeek推理能力
在聊天框中输入:
请用DeepSeek的推理能力,解决以下数学问题:一个水池,甲管单独注水需要10小时注满,乙管单独注水需要15小时注满。如果两管同时打开,需要多少小时注满水池?
如果DeepSeek展示详细的推理过程,说明部署成功!3. 常用运维命令
# 查看状态openclaw gateway status# 查看实时日志openclaw logs follow# 重启服务openclaw gateway restart# 停止服务openclaw gateway stop# 诊断检查openclaw doctor
📊 第七部分:DeepSeek模型性能参考
• DeepSeek-chat (API):内存需求2GB以上,支持128K上下文,成本极低,适用于通用对话,性价比高• DeepSeek-reasoner (API):内存需求2GB以上,支持64K上下文,成本极低,适用于深度推理、数学和编程任务• deepseek-r1:1.5b (本地):内存需求8GB以上,支持32K上下文,完全免费,入门级推理模型• deepseek-r1:7b (本地):内存需求16GB以上,支持32K上下文,完全免费,推荐配置,性能均衡• deepseek-r1:14b (本地):内存需求32GB以上,支持32K上下文,完全免费,满足高性能需求• deepseek-r1:32b (本地):内存需求64GB以上,支持32K上下文,完全免费,满足强推理需求• deepseek-v3:671b (本地):内存需求256GB以上,支持128K上下文,完全免费,能力最强,需服务器级配置🔧 第八部分:常见问题排查
问题1:DeepSeek API连接失败
解决:检查API Key和网络
# 测试API连接curl https://api.deepseek.com/v1/chat/completions \ -H "Content-Type: application/json" \ -H "Authorization: Bearer 你的-api-key" \ -d '{ "model": "deepseek-chat", "messages": [{"role": "user", "content": "Hello"}] }'
问题2:本地模型连接失败
解决:检查Ollama服务状态
# 查看Ollama状态systemctl status ollama# 测试APIcurl http://localhost:11434/api/tags
问题3:持续返回"NO OUTPUT"(仅限本地Ollama)
现象:首次提问无输出,重启后能看到上次回复解决:修改OpenClaw源码
# 定位文件find /usr/lib -name "provider-utils.js"# 编辑文件,移除"ollama"判断# 修改前:if(normalized === "ollama" || ...)# 修改后:移除ollama判断# 重启服务systemctl --user restart openclaw
问题4:端口被占用
# 查找占用进程sudo lsof -i :18789# 结束进程sudo kill -9 <PID>
问题5:模型下载慢(本地部署)
解决:使用镜像或代理
# 配置Docker镜像加速(如使用容器)# 或在Ollama配置中设置代理export http_proxy="http://代理地址:端口"export https_proxy="http://代理地址:端口"ollama pull deepseek-r1:7b
问题6:内存不足
解决:增加Swap或使用更小的模型
# 创建4GB Swapsudo fallocate -l 4G /swapfilesudo chmod 600 /swapfilesudo mkswap /swapfilesudo swapon /swapfile# 永久生效echo '/swapfile none swap sw 0 0' | sudo tee -a /etc/fstab
🚨 第九部分:安全注意事项
1.API Key安全:切勿在代码中硬编码,使用环境变量
2.账户余额:确保DeepSeek账户有足够余额
3.权限问题:OpenClaw权限极高,建议在虚拟机或轻量服务器部署
4.防火墙配置:仅放行必要端口
5.定期更新:openclaw update 或 npm update -g openclaw
🎉 第十部分:完成!
恭喜!你现在已经在Linux上成功部署了由DeepSeek驱动的OpenClaw智能助手。
访问信息汇总
常用命令速查
• openclaw dashboard:打开控制台• openclaw gateway status:查看服务状态• openclaw logs follow:查看实时日志• openclaw doctor:进行诊断检查• openclaw plugins list:列出已安装技能• sudo systemctl status openclaw:查看系统服务状态
DeepSeek特色体验
现在,开始享受由 DeepSeek 驱动的 AI 智能体吧! 🚀