冰河技术
导读
♻学习路线
  • 面试必问系列

    • 面试必问
  • 架构与模式

    • Java极简设计模式
    • 实战高并发设计模式
  • Java核心技术

    • Java8新特性
    • IOC核心技术
    • JVM调优技术
  • 容器化核心技术

    • Dockek核心技术
  • 分布式存储

    • Mycat核心技术
  • 数据库核心技术

    • MySQL基础篇
  • 服务器核心技术

    • Nginx核心技术
  • 渗透核心技术

    • 渗透实战技术
  • 底层技术
  • 源码分析
  • 基础案例
  • 实战案例
  • 面试
  • 系统架构
  • Spring6核心技术
  • 分布式事务

    • 分布式事务系列视频
  • SpringBoot
  • SpringCloudAlibaba
  • 🔥AI大模型项目

    • 一站式AI智能平台
    • AI智能客服系统
    • AI智能问答系统
    • 实战AI大模型
  • 中间件项目

    • 手写高性能Redis组件
    • 手写高性能脱敏组件
    • 手写线程池项目
    • 手写高性能SQL引擎
    • 手写高性能Polaris网关
    • 手写高性能RPC项目
  • 高并发项目

    • 分布式IM即时通讯系统(新)
    • 分布式Seckill秒杀系统
    • 实战高并发设计模式
  • 微服务项目

    • 简易电商脚手架项目
  • 手撕源码

    • 手撕Spring6源码
🌍知识星球
  • 总览

    • 《书籍汇总》
  • 出版图书

    • 《深入理解高并发编程:核心原理与案例实战》
    • 《深入理解高并发编程:JDK核心技术》
    • 《深入高平行開發:深度原理&專案實戰》
    • 《深入理解分布式事务:原理与实战》
    • 《MySQL技术大全:开发、优化与运维实战》
    • 《海量数据处理与大数据技术实战》
  • 电子书籍

    • 《实战高并发设计模式》
    • 《深入理解高并发编程(第2版)》
    • 《深入理解高并发编程(第1版)》
    • 《从零开始手写RPC框架(基础篇)》
    • 《SpringCloud Alibaba实战》
    • 《冰河的渗透实战笔记》
    • 《MySQL核心知识手册》
    • 《Spring IOC核心技术》
  • 关于自己
  • 关于学习
  • 关于职场
B站
Github
导读
♻学习路线
  • 面试必问系列

    • 面试必问
  • 架构与模式

    • Java极简设计模式
    • 实战高并发设计模式
  • Java核心技术

    • Java8新特性
    • IOC核心技术
    • JVM调优技术
  • 容器化核心技术

    • Dockek核心技术
  • 分布式存储

    • Mycat核心技术
  • 数据库核心技术

    • MySQL基础篇
  • 服务器核心技术

    • Nginx核心技术
  • 渗透核心技术

    • 渗透实战技术
  • 底层技术
  • 源码分析
  • 基础案例
  • 实战案例
  • 面试
  • 系统架构
  • Spring6核心技术
  • 分布式事务

    • 分布式事务系列视频
  • SpringBoot
  • SpringCloudAlibaba
  • 🔥AI大模型项目

    • 一站式AI智能平台
    • AI智能客服系统
    • AI智能问答系统
    • 实战AI大模型
  • 中间件项目

    • 手写高性能Redis组件
    • 手写高性能脱敏组件
    • 手写线程池项目
    • 手写高性能SQL引擎
    • 手写高性能Polaris网关
    • 手写高性能RPC项目
  • 高并发项目

    • 分布式IM即时通讯系统(新)
    • 分布式Seckill秒杀系统
    • 实战高并发设计模式
  • 微服务项目

    • 简易电商脚手架项目
  • 手撕源码

    • 手撕Spring6源码
🌍知识星球
  • 总览

    • 《书籍汇总》
  • 出版图书

    • 《深入理解高并发编程:核心原理与案例实战》
    • 《深入理解高并发编程:JDK核心技术》
    • 《深入高平行開發:深度原理&專案實戰》
    • 《深入理解分布式事务:原理与实战》
    • 《MySQL技术大全:开发、优化与运维实战》
    • 《海量数据处理与大数据技术实战》
  • 电子书籍

    • 《实战高并发设计模式》
    • 《深入理解高并发编程(第2版)》
    • 《深入理解高并发编程(第1版)》
    • 《从零开始手写RPC框架(基础篇)》
    • 《SpringCloud Alibaba实战》
    • 《冰河的渗透实战笔记》
    • 《MySQL核心知识手册》
    • 《Spring IOC核心技术》
  • 关于自己
  • 关于学习
  • 关于职场
B站
Github
  • 开篇:专栏介绍

    • 开篇:实战AI大模型专栏正式开撸
  • 第01部分:DeepSeek API实战

    • 第01节:实战Java和Python调用DeepSeek API
    • 第02节:DeepSeek API流式调用实战
    • 第03节:基于SpringAI实现智能问答系统
  • 第02部分:部署AI大模型

    • 第01节:DeepSeek本地部署+知识库+联网搜索
    • 第02节:DeepSeek R1蒸馏模型组本地部署与调用
    • 第03节:DeepSeek R1蒸馏模型组Ollama调用
    • 第04节:基于Windows系统部署DeepSeek多模态生成模型
    • 第05节:基于Ubuntu系统部署DeepSeek多模态生成模型
    • 第06节:基于Ollama+OpenWebUI和DeepSeek-R1本地部署AI对话系统
    • 第07节:Sealos Cloud+K8S一键脚本部署
    • 第08节:私有化部署Sealos Cloud+Devbox+Minio
  • 第03部分:生成AI应用

    • 第01节:构建生成式AI应用-安装Ollama+Dify
    • 第02节:构建生成式AI应用-接入DeepSeek大模型
    • 第03节:通过Ollama+Dify+DeepSeek+searxng创建Agent应用
    • 第04节:通过Ollama+Dify+Qwen3创建Agent应用
    • 第05节:通过Dify实现构建AI图片生成应用
    • 第06节:基于Dify+llama3+Stable Diffusion搭建AI图片生成应用
    • 第07节:基于Dify+deepseekR1搭建文章理解助手
    • 第08节:基于Dify+deepseekR1搭建智能客服机器人
    • 第09节:基于MCP插件加入高德地图MCP Server
    • 第10节:搭建云IDE平台并安装Dify
    • 第11节:基于ACE-Step搭建生成式AI音乐应用
  • 第04部分:AI数字人应用

    • 第01节:实践QEMU-KVM 虚拟化
    • 第02节:基于Dify chatflow工作流生成专业级提示词
    • 第03节:基于Awesome-Digital-Human-Live打造AI数字人
    • 第04节:基于多个大模型改写数字人应用(代码版)
    • 第05节:基于开源数字人硅基heygem生成AI数字人
  • 第05部分:增强与优化

    • 第01节:增强优化ComfyUI并安装插件
    • 第02节:从源码到Docker部署Qwen3-VL接口
    • 第03节:分离部署Duix.Avatar服务端和客户端
  • 专栏总结

    • 总结:实战AI大模型整体专栏总结

《实战AI大模型》部署大模型-第06节:基于Ollama+OpenWebUI和DeepSeek-R1本地部署AI对话系统

作者:冰河
星球:http://m6z.cn/6aeFbs
博客:https://binghe.site
文章汇总:https://binghe.site/md/all/all.html
源码获取地址:https://t.zsxq.com/0dhvFs5oR

大家好,我是冰河~~

随着数据安全与隐私保护意识的提升,越来越多开发者和企业开始关注将AI能力部署在本地的方案。与依赖云服务的传统方式相比,本地部署不仅能有效避免敏感数据外泄的风险,还能减少网络延迟,提供更高的定制灵活性。本章,将分享如何通过 Ollama 与 OpenWebUI 这两款工具的搭配,在本地环境中快速搭建并运行 DeepSeek-R1 大模型,实现从环境准备到实际应用的全流程覆盖。

一、核心工具与模型介绍

Ollama:轻量高效的模型运行引擎

Ollama 是一个专为本地运行大语言模型而设计的工具,它让模型的下载、管理和使用变得异常简单。即使你没有高性能的GPU,也能通过CPU模式顺利运行多种主流开源模型。它支持跨平台操作,无论是Windows、macOS还是Linux系统,都能通过命令行轻松驾驭。

OpenWebUI:直观友好的交互界面

如果你习惯了ChatGPT那样的网页对话体验,那么OpenWebUI绝对会让你感到亲切。它提供了一个功能完整的Web界面,支持多模型切换、对话历史记录、Markdown渲染等实用功能。更重要的是,它完全开源,支持Docker部署,还具备插件扩展能力。

DeepSeek-R1:实力不俗的国产大模型

DeepSeek-R1 是由深度求索公司推出的多模态大语言模型,在代码生成、逻辑推理和中英文翻译等方面表现突出。该模型提供了从7B到72B等多个参数版本,大家可以根据自己的硬件配置和任务需求灵活选择。无论是构建企业知识库、自动化脚本编写,还是生成数据分析报告,它都能胜任。

二、部署前的环境准备

在开始部署之前,请确保你的设备满足以下要求:

操作系统:Windows 10及以上版本、macOS 12及以上版本,或Ubuntu 20.04及以上版本。

硬件配置建议:

  • 运行7B/8B模型:至少需要8GB内存和4GB显存(NVIDIA GTX 1060或同等级别显卡)
  • 运行32B模型:推荐24GB显存(如RTX 4090)
  • 运行671B完整版模型:需要专业级显卡(如NVIDIA A100)集群支持

网络环境:由于需要从GitHub和Docker Hub下载资源,建议提前配置好网络代理或国内镜像加速服务。

三、详细部署步骤

第一步:安装Ollama

下载与安装:

  • Linux系统用户,只需在终端中执行以下命令:
curl -fsSL https://ollama.com/install.sh | sh
  • Windows系统用户,直接访问 Ollama官网 下载安装程序。

验证安装结果: 安装完成后,在命令行中输入:

ollama --version

如果正确显示版本号(如0.1.25),说明安装成功。

环境变量配置(可选但推荐):

  • 设置OLLAMA_MODELS变量来指定模型文件的存储位置,例如指向一个空间充足的分区。
  • 设置OLLAMA_HOST为0.0.0.0,方便在同一网络下的其他设备访问。
  • 如需了解更多配置选项,可参考Ollama的GitHub仓库。

第二步:获取DeepSeek-R1模型

模型选择建议:

  • 如果你是初次尝试或硬件配置有限,建议从deepseek-r1:7b(4.7GB)或deepseek-r1:8b(4.9GB)开始。
  • 如果需要处理更复杂的任务且有足够硬件支持,可以考虑deepseek-r1:32b(20GB)或deepseek-r1:70b(43GB)版本。

下载模型: 在命令行中执行:

# 下载并运行7B模型
ollama run deepseek-r1:7b
# 或者下载8B模型
ollama run deepseek-r1:8b

验证模型运行状态: 当看到终端中出现类似下面的交互界面时,说明模型已成功加载:

查看完整文章

加入冰河技术知识星球,解锁完整技术文章、小册、视频与完整代码

在 GitHub 上编辑此页
上次更新: 2026/4/29 16:18
Contributors: binghe001
Prev
第05节:基于Ubuntu系统部署DeepSeek多模态生成模型
Next
第07节:Sealos Cloud+K8S一键脚本部署
阅读全文
×

扫码或搜索:冰河技术
发送:290992
即可立即永久解锁本站全部文章

星球会员
跳转链接