养龙虾时,没有token,本地部署大模型,这样的情况轻松可解决,通过ollama下载并部署大模型。
Ollama是个被称作「本地大模型运行工具」的东西,它具备开源免费的特性,还呈现出轻量简洁的特点,它能够协助你在电脑上面迅速地去部署以及运行MiniMax、Qwen、DeepSeek等等上百款主流的开源大模型。
# 官方地址
https://ollama.com/
# 下载地址
https://ollama.com/download
于安装Ollama之际,默认情形下会被安装至C盘,得以借助如下方式来自行定义安装路径:
# 在cmd/powershell中执行下面命令
.\OllamaSetup.exe /DIR="D:\Your\Custom\Path" # 将D:\Your\Custom\Path替换为自己的安装路径
# 例
.\OllamaSetup.exe /DIR="E:\AI\Ollama"
执行命令
会弹出安装页面,点击Install一键安装
安装后界面
设定模型下载的路径,原本默认是C盘,现将其修改至别的盘,以此避免C盘出现爆满的情况。把上下文设置成64K。
下载模型
# 搜索自己想要下载的模型
https://ollama.com/search
# 在cmd/powershell输入下面命令下载模型
ollama pull qwen3.5:0.8b
# 将 qwen3.5:0.8b 替换成你想下载的模型名称
下载完成界面
查看下载的模型
ollama list
常用命令
ollama pull # 下载模型
ollama run # 启动模型
ollama list # 查看本地已安装的所有模型
ollama rm # 模型名称:删除不需要的模型,释放存储空间
ollama show # 模型名称:查看模型的详细信息(参数、大小等)
ollama stop # 停止当前运行的模型和服务
ollama help # 查看所有命令的使用说明
2 openclaw配置本地模型
打开cmd/powershell终端执行下面命令
openclaw config
选择Local,本地使用
选择Model,模型
选择Ollama
默认回车即可
选择Local,本地
使用空格选择自己下载的模型回车
此时gateway会自动重启,不用管
选择Continue退出
为默认模型作出修改,要打开C:\Users\waluna\.openclaw\openclaw.json这个文件,是这样的。
"agents": {
"defaults": {
"model": {
"primary": "ollama/qwen3.5:0.8b",
保存后立即生效,在webui测试模型
本地大模型,其配置已然完成,从此再也无需忧心token不够用的状况了,并且数据是全然在本地进行存储的,所以不用担心隐私安全方面的问题。
关于我
全网可搜《阿贤Linux》
中国软件开发者网络、知识问答社区、动画视频平台,程序开发技术交流网站、专业技术平台、技术社区网站、技术问答平台、云计算服务平台、云计算服务平台、云计算服务平台、资讯平台、内容创作平台、代码托管平台、个人搭建的网络日志平台。