当前位置:首页 > AI应用

养龙虾没token本地部署大模型轻松解决

liangzai3小时前AI应用3
摘要:养龙虾没token本地部署大模型轻松解决1 ollama下载部署大模型Ollama是一个「本地大模型运行工具」,开源免费、轻量简洁,能帮你在电脑上快速部署和运行MiniMax、Qwen、DeepSeek等上百款主流开源大模型。…

养龙虾没token本地部署大模型轻松解决

1 ollama下载部署大模型

Ollama是一个「本地大模型运行工具」,开源免费、轻量简洁,能帮你在电脑上快速部署和运行MiniMax、Qwen、DeepSeek等上百款主流开源大模型。

# 官方地址
https://ollama.com/
# 下载地址
https://ollama.com/download

在安装Ollama时,默认会安装在C盘,可以通过下面方式自定义安装路径:

# 在cmd/powershell中执行下面命令.\OllamaSetup.exe /DIR="D:\Your\Custom\Path"   # 将D:\Your\Custom\Path替换为自己的安装路径# 例.\OllamaSetup.exe /DIR="E:\AI\Ollama"

执行命令

会弹出安装页面,点击Install一键安装

安装后界面

设置模型下载路径,默认C盘,修改到其他盘,防止C盘爆满。设置上下文为64K。

下载模型

# 搜索自己想要下载的模型https://ollama.com/search# 在cmd/powershell输入下面命令下载模型ollama pull qwen3.5:0.8b# 将 qwen3.5:0.8b 替换成你想下载的模型名称

下载完成界面

查看下载的模型

ollama list

常用命令

ollama pull   # 下载模型ollama run    # 启动模型ollama list   # 查看本地已安装的所有模型ollama rm     # 模型名称:删除不需要的模型,释放存储空间ollama show   # 模型名称:查看模型的详细信息(参数、大小等)ollama stop   # 停止当前运行的模型和服务ollama help   # 查看所有命令的使用说明

2 openclaw配置本地模型

打开cmd/powershell终端执行下面命令

openclaw config

选择Local,本地使用

选择Model,模型

选择Ollama

默认回车即可

选择Local,本地

使用空格选择自己下载的模型回车

此时gateway会自动重启,不用管

选择Continue退出

打开C:\Users\waluna\.openclaw\openclaw.json文件修改默认模型

  "agents": {
    "defaults": {
      "model": {
        "primary": "ollama/qwen3.5:0.8b",

保存后立即生效,在webui测试模型

本地大模型配置完成,再也不用担心token不够用了,数据也是完全本地存储,不怕隐私安全。


扫描二维码推送至手机访问。

版权声明:本文来自互联网发布,如有侵权,请联系整改删除。

本文链接:https://liangzai.com/asd/%E5%85%BB%E9%BE%99%E8%99%BE%E6%B2%A1token%E6%9C%AC%E5%9C%B0%E9%83%A8%E7%BD%B2%E5%A4%A7%E6%A8%A1%E5%9E%8B%E8%BD%BB%E6%9D%BE%E8%A7%A3%E5%86%B3.html

标签: 龙虾ollama
分享给朋友:
返回列表

没有更早的文章了…

下一篇:openclaw本地部署教程

“养龙虾没token本地部署大模型轻松解决” 的相关文章

openclaw本地部署教程

openclaw本地部署教程

适用于任何操作系统的 AI 智能体 Gateway 网关,支持 WhatsApp、Telegram、Discord、iMessage 等。发送消息,随时随地获取智能体响应。通过插件可添加 Mattermost 等更多渠道。# 官方网址 https://openclaw.ai/ #&nb…