首页 纸飞机TG账号批发老号购买内容详情

养龙虾没token本地部署大模型轻松解决

2026-04-06 3 纸飞机账号购买

养龙虾时,没有token,本地部署大模型,这样的情况轻松可解决,通过ollama下载并部署大模型。

Ollama是个被称作「本地大模型运行工具」的东西,它具备开源免费的特性,还呈现出轻量简洁的特点,它能够协助你在电脑上面迅速地去部署以及运行MiniMax、Qwen、DeepSeek等等上百款主流的开源大模型。

# 官方地址
https://ollama.com/
# 下载地址
https://ollama.com/download

于安装Ollama之际,默认情形下会被安装至C盘,得以借助如下方式来自行定义安装路径:

# 在cmd/powershell中执行下面命令
.\OllamaSetup.exe /DIR="D:\Your\Custom\Path"   # 将D:\Your\Custom\Path替换为自己的安装路径
# 例
.\OllamaSetup.exe /DIR="E:\AI\Ollama"

执行命令

会弹出安装页面,点击Install一键安装

安装后界面

设定模型下载的路径,原本默认是C盘,现将其修改至别的盘,以此避免C盘出现爆满的情况。把上下文设置成64K。

下载模型

# 搜索自己想要下载的模型
https://ollama.com/search
# 在cmd/powershell输入下面命令下载模型
ollama pull qwen3.5:0.8b
# 将 qwen3.5:0.8b 替换成你想下载的模型名称

下载完成界面

查看下载的模型

ollama list

常用命令

ollama pull   # 下载模型
ollama run    # 启动模型
ollama list   # 查看本地已安装的所有模型
ollama rm     # 模型名称:删除不需要的模型,释放存储空间
ollama show   # 模型名称:查看模型的详细信息(参数、大小等)
ollama stop   # 停止当前运行的模型和服务
ollama help   # 查看所有命令的使用说明

2 openclaw配置本地模型

打开cmd/powershell终端执行下面命令

openclaw config

选择Local,本地使用

选择Model,模型

选择Ollama

默认回车即可

选择Local,本地

使用空格选择自己下载的模型回车

此时gateway会自动重启,不用管

选择Continue退出

为默认模型作出修改,要打开C:\Users\waluna\.openclaw\openclaw.json这个文件,是这样的。

  "agents": {
    "defaults": {
      "model": {
        "primary": "ollama/qwen3.5:0.8b",

保存后立即生效,在webui测试模型

本地大模型,其配置已然完成,从此再也无需忧心token不够用的状况了,并且数据是全然在本地进行存储的,所以不用担心隐私安全方面的问题。

关于我

全网可搜《阿贤Linux》

中国软件开发者网络、知识问答社区、动画视频平台,程序开发技术交流网站、专业技术平台、技术社区网站、技术问答平台、云计算服务平台、云计算服务平台、云计算服务平台、资讯平台、内容创作平台、代码托管平台、个人搭建的网络日志平台。

相关标签: # 本地部署 # 大模型 # Ollama # 开源模型 # 隐私安全