news 2026/4/16 11:56:30

修改 Ollama 模型默认路径、迁移Ollama 程序和模型以及Ollama常用命令介绍

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
修改 Ollama 模型默认路径、迁移Ollama 程序和模型以及Ollama常用命令介绍

一、修改 Ollama 模型默认路径

首先要知道的是,Ollama模型默认是下载到C盘的,但很多人可能不希望它默认到C盘,这时候就需要通过环境配置去修改默认路径,方法如下:

1、在你希望存放模型的路径创建一个文件夹。例如此处我在E盘创建了一个LLM_Model的文件夹

2、环境配置。回到桌面,找到“此电脑”或者“计算机”图标,右键点击,接着左键点击“属性

在弹出的页面中找到“高级系统设置

点击“高级系统设置”,在弹出的页面中找到“环境变量”并点击

点击“新建”,此处我在用户变量和系统变量中都进行了新建。在弹出的页面中填写内容,变量名填写 OLLAMA_MODELS ,变量值填写第一步创建的文件夹的路径

填写完成后点击确定即可。此时已完成环境配置,后续通过Ollama官网在线下载的模型都将保存在新的路径。

【AI大模型全套资料有需要的朋友可以点击下方卡片免费获取~ 】

​编辑2025最新AI大模型学习资料合集,允许白嫖,学完拿下大厂offer,存下吧很难找齐的!26 赞同 · 9 评论文章

二、迁移Ollama 程序和模型

此处内容包括迁移Ollama程序和迁移Ollama模型,Ollama程序和模型都默认安装在C盘

其中Ollama程序默认安装在:

C:\Users\你的用户名\AppData\Local\Programs\Ollama

Ollama模型默认安装在:

C:\Users\你的用户名\.ollama\models

1、迁移Ollama程序

首先找到程序默认安装路径

直接将整个文件夹剪切到目标路径,例如D:\Ollama

回到环境变量页面,找到“path”并点击编辑,找到Ollama的默认路径,将原本的路径修改为新的路径

2、迁移Ollama模型

如果在修改模型默认下载路径之前已经下载了模型,则可以通过迁移的方式将模型迁移到目标路径。

首先找到模型默认安装路径

然后将model文件夹中的blobsmanifests文件夹剪切到目标路径,例如此处的E:\LLM_Model

最后参照第一点,新建或者修改OLLAMA_MODELS变量,将OLLAMA_MODELS的变量值改为目标路径

三、Ollama常用命令介绍

Ollama常用命令包括3类,分别是模型管理类、服务管理类、信息查询类

1、模型管理类

ollama pull <model-name>可以从在线拉取模型

示例:ollama pull deepseek-r1:1.5b

意思是拉取deepseek-r1:1.5b模型

ollama create <custom-model-name> -f <Modelfile>可以根据Modelfile 创建模型

该命令通常用于离线安装模型,例如当你在hugging face下载了一个deepseek-r1:8b的模型文件,则可以通过以下命令进行离线安装:

echo "From ./deepeek-r1-8b.gguf" > modelfile-deepseek-r1-8b ollama create deepseek-r1:8b -f modelfile-deepseek-r1-8b

ollama list用于查看已下载的模型列表

示例:ollama list

ollama run <model-name>用于运行模型

示例:ollama run deepseek-r1:1.5b

意思是运行deepseek-r1:1.5b模型

ollama cp <source-model-name> <new-model-name>用于复制模型

示例:ollama cp deepseek-r1:1.5b my_model

意思是复制deepseek-r1:1.5b,复制后的模型名称叫my_model

ollama rm <model-name>用于删除模型

示例:ollama rm deepseek-r1:1.5b

意思是删除deepseek-r1:1.5b模型

ollama ps用于查看正在运行的模型

示例:ollama ps

ollama stop <model-name>用于停止正在运行的模型

示例:ollama stop deepseek-r1:1.5b

意思是停止deepseek-r1:1.5b模型

2、服务管理类

ollama serve用于启动Ollama服务

示例:ollama serve 对于Windows来说通常会报错,提示端口占用,因为Ollama已经在运行,通常是开机自动运行,并且对于Windows来说,想启动Ollama也无需使用命令行,像打开其他软件一样直接双击就可启动

3、信息查询类

ollama -v用于查询Ollama版本信息

示例:ollama -v

ollama show <model-name>用于查看模型的详细信息

示例:ollama show deepseek-r1:1.5b

表示查看deepseek-r1:1.5b模型的详细信息

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/14 15:48:48

Hunyuan-MT-7B-WEBUI翻译效果展示,维吾尔语也支持

Hunyuan-MT-7B-WEBUI翻译效果展示&#xff0c;维吾尔语也支持 你有没有试过把一段维吾尔语新闻准确翻成中文&#xff1f;不是靠词对词硬译&#xff0c;而是真正理解句子结构、文化语境和表达习惯&#xff0c;输出通顺自然、专业可信的译文&#xff1f;或者反过来&#xff0c;把…

作者头像 李华
网站建设 2026/4/16 11:03:40

Coze-Loop代码优化体验:AI帮你自动修复Bug和提升性能

Coze-Loop代码优化体验&#xff1a;AI帮你自动修复Bug和提升性能 1. 项目简介 coze-loop - AI 代码循环优化器 是一款面向开发者的轻量级本地化代码优化工具&#xff0c;它不依赖云端服务&#xff0c;也不需要复杂的配置流程。当你打开这个镜像的 Web 界面&#xff0c;看到的不…

作者头像 李华
网站建设 2026/4/16 11:08:46

通义千问3-4B显存不足?4GB量化版移动端部署解决方案

通义千问3-4B显存不足&#xff1f;4GB量化版移动端部署解决方案 1. 为什么你卡在“显存不足”这一步&#xff1f; 你是不是也遇到过这样的情况&#xff1a;下载好 Qwen3-4B-Instruct-2507&#xff0c;兴冲冲打开终端准备跑起来&#xff0c;结果刚执行 transformers 加载就弹出…

作者头像 李华
网站建设 2026/4/16 11:11:10

Qwen3-Embedding-4B在内容审核落地:敏感语义泛化匹配而非固定词库

Qwen3-Embedding-4B在内容审核落地&#xff1a;敏感语义泛化匹配而非固定词库 1. 为什么传统内容审核正在失效&#xff1f; 你有没有遇到过这种情况&#xff1a; 一条违规评论写的是“这药吃了能让人飘起来”&#xff0c;没提“毒品”“上头”“K粉”&#xff0c;也没用任何黑…

作者头像 李华
网站建设 2026/4/16 9:23:00

亲测Z-Image-Turbo_UI界面:本地AI绘画体验真实分享

亲测Z-Image-Turbo_UI界面&#xff1a;本地AI绘画体验真实分享 最近在本地搭了一套真正“打开就能画”的AI绘图环境&#xff0c;没折腾CUDA版本、没手动下载几十GB模型、没被报错信息劝退三次——就执行一条命令&#xff0c;刷新浏览器&#xff0c;输入一句话&#xff0c;三秒后…

作者头像 李华