news 2026/4/20 14:38:10

Ollama + Open WebUI WSL上搭建本地AI模型

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
Ollama + Open WebUI WSL上搭建本地AI模型
  1. 打开 WSL 终端,执行官方一键安装脚本:
    curl -fsSL https://ollama.com/install.sh | sh
  2. 验证安装是否成功:
    ollama --version # 输出版本号(如ollama version 0.1.48)则安装成功

三、基础使用:运行 / 管理模型

1. 运行第一个模型(以 DeepSeek 为例)

Ollama 内置了主流模型的配置,直接执行模型名即可自动下载并运行:

ollama run deepseek # 自动下载DeepSeek模型并启动交互界面
  • 首次运行会下载模型文件(DeepSeek-7B 约 4GB),耐心等待;
  • 下载完成后进入交互模式,输入问题即可对话(如:介绍一下WSL);
  • 退出交互:输入/bye或按Ctrl + D
2. 常用 Ollama 命令(模型管理)
命令功能
ollama list查看已下载的模型
ollama pull deepseek单独下载模型(不运行)
ollama rm deepseek删除指定模型
ollama stop deepseek停止运行中的模型
ollama serve后台启动 Ollama 服务(供 API 调用)

四、进阶:开启 GPU 加速(WSL 2 专属)

默认 Ollama 使用 CPU 运行模型,开启 GPU 加速可大幅提升推理速度,步骤如下:

  1. 安装 WSL 版 NVIDIA 驱动:
    • 先在 Windows 侧安装 NVIDIA 显卡驱动(需支持 WSL 2):https://www.nvidia.com/Download/index.aspx
    • WSL 内安装 CUDA 依赖(无需完整安装 CUDA,仅需运行时):
      sudo apt install nvidia-cuda-toolkit -y
  2. 验证 GPU 识别:
    nvidia-smi # 输出显卡信息则GPU适配成功
  3. 重启 Ollama 服务,自动调用 GPU:
    sudo systemctl restart ollama ollama run deepseek # 再次运行模型,会自动使用GPU

五、通过 API 调用 Ollama(开发集成)

Ollama 内置 REST API,可在 WSL 内或 Windows 侧调用:

  1. 后台启动 Ollama 服务:
    ollama serve & # & 表示后台运行
  2. 调用 API 示例(curl 测试):
    curl http://localhost:11434/api/generate -d '{ "model": "deepseek", "prompt": "解释Ollama的核心优势" }'
  3. Python 调用示例:
    import requests url = "http://localhost:11434/api/generate" data = { "model": "deepseek", "prompt": "用Python写一个调用Ollama API的示例", "stream": False # 关闭流式输出,直接返回完整结果 } response = requests.post(url, json=data) print(response.json()["response"])

Docker 安装 web-ui 界面

version: '3.8' services: open-webui: image: ghcr.io/open-webui/open-webui:main container_name: open-webui restart: always ports: - "3000:8080" # 主机端口:容器端口,可自定义(如 8088:8080) extra_hosts: - "host.docker.internal:host-gateway" # 关键:让容器访问主机的 Ollama volumes: - ./data:/app/backend/data # 持久化数据(对话、配置、插件) - ./models:/app/models # 可选:挂载自定义模型目录 environment: - OLLAMA_BASE_URL=http://host.docker.internal:11434 # 指定 Ollama 地址 - LANGUAGE=zh-CN # 强制中文界面 - TZ=Asia/Shanghai # 时区配置(避免日志时间错乱)
版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/19 13:40:01

ContextMenumanager插件增强开发体验:右键运行TensorFlow脚本

右键运行 TensorFlow 脚本:用 ContextMenuManager 提升开发效率 在现代 AI 工程实践中,一个看似微不足道的操作——“右键运行脚本”,却可能成为决定团队迭代速度的关键。想象这样一个场景:数据科学家刚调完一组超参数&#xff0c…

作者头像 李华
网站建设 2026/4/18 5:27:15

M1 Mac使用Miniconda安装Python与深度学习框架

在 M1 Mac 上构建高效的 Python 深度学习环境 当手头的 MacBook 从 Intel 切换到 Apple Silicon,许多开发者第一次运行 pip install 时都会心头一紧:为什么这么慢?明明是更强大的芯片,却感觉像是在用 Rosetta 翻译一层又一层的代码…

作者头像 李华
网站建设 2026/4/18 4:17:53

PaddleOCR多语言识别优化:基于conda的环境隔离与依赖管理

PaddleOCR多语言识别优化:基于Conda的环境隔离与依赖管理 在智能文档处理日益普及的今天,企业对高精度、多语言OCR系统的需求正快速增长。尤其是中文场景下,由于字体复杂、排版多样、背景干扰严重,通用识别工具往往力不从心。百度…

作者头像 李华
网站建设 2026/4/18 5:28:32

Air780EPM开发板FFT应用示例核心要点实战解读!

基于Air780EPM开发板的FFT应用实践,本文将对示例核心要点进行实战解读。涵盖开发板环境配置、FFT功能实现的关键步骤,以及示例运行中的核心问题与解决方案,以实战视角拆解Air780EPM开发板FFT应用的核心要点,为开发者提供实用参考。…

作者头像 李华
网站建设 2026/4/17 19:36:14

CordovaOpenHarmony导入导出功能

欢迎大家加入开源鸿蒙跨平台开发者社区,一起共建开源鸿蒙跨平台生态。 概述 导入导出功能允许用户在不同设备或应用之间转移数据。本文将详细讲解如何在Cordova&OpenHarmony框架中实现导入导出系统。 导出数据 用户可以导出所有数据为文件。 async exportAl…

作者头像 李华
网站建设 2026/4/16 16:08:08

日志收集的智能分析:异常模式识别

日志收集的智能分析:异常模式识别关键词:日志收集、智能分析、异常模式识别、机器学习、数据挖掘摘要:本文聚焦于日志收集的智能分析中的异常模式识别。在当今复杂的信息技术环境下,系统和应用产生的海量日志数据蕴含着重要信息&a…

作者头像 李华