windows10 部署龙虾 本地模型
摘要:下面给你一套 **Windows 10 原生部署小龙虾(OpenClaw)+ 本地 Ollama 模型(如 Qwen3.6)** 的完整流程,全程复制粘贴即可,不用 WSL。…
下面给你一套 **Windows 10 原生部署小龙虾(OpenClaw)+ 本地 Ollama 模型(如 Qwen3.6)** 的完整流程,全程复制粘贴即可,不用 WSL。
node -v # 输出版本号(如 v22.14.0)npm -v
ollama pull qwen3:27b-q4 # 24G 显存刚好ollama pull qwen3:14b-q4 # 备用
右键开始菜单 → Windows PowerShell(管理员)
Set-ExecutionPolicy Bypass -Scope Process -Force
iwr -useb https://clawd.org.cn/install.ps1 | iex
按提示选:
# 设置 Ollama 地址openclaw config set llm.base_url http://localhost:11434/v1# 设置 API keyopenclaw config set llm.api_key ollama# 注册本地模型openclaw models add ollama/qwen3:27b-q4
openclaw models add ollama/qwen3:14b-q4# 查看已注册openclaw models list
输出:Gateway started at http://localhost:7860
访问:http://localhost:7860
# 启动/停止/重启openclaw start
openclaw stop
openclaw restart# 切换默认模型openclaw models set ollama/qwen3:14b-q4# 查看日志openclaw logs
命令找不到:重启 PowerShell 或执行 refreshenv
连不上 Ollama:确认 Ollama 运行中,浏览器能打开 http://localhost:11434
爆显存:24G 显存跑 27B 必须用 Q4 量化,别用 Q5/Q8
安装被杀毒拦截:临时关闭 360 / 火绒 / Defender,安装后恢复