冰河技术
导读
♻学习路线
  • 面试必问系列

    • 面试必问
  • 架构与模式

    • Java极简设计模式
    • 实战高并发设计模式
  • Java核心技术

    • Java8新特性
    • IOC核心技术
    • JVM调优技术
  • 容器化核心技术

    • Dockek核心技术
  • 分布式存储

    • Mycat核心技术
  • 数据库核心技术

    • MySQL基础篇
  • 服务器核心技术

    • Nginx核心技术
  • 渗透核心技术

    • 渗透实战技术
  • 底层技术
  • 源码分析
  • 基础案例
  • 实战案例
  • 面试
  • 系统架构
  • Spring6核心技术
  • 分布式事务

    • 分布式事务系列视频
  • SpringBoot
  • SpringCloudAlibaba
  • 🔥AI大模型项目

    • 一站式AI智能平台
    • AI智能客服系统
    • AI智能问答系统
    • 实战AI大模型
  • 中间件项目

    • 手写高性能Redis组件
    • 手写高性能脱敏组件
    • 手写线程池项目
    • 手写高性能SQL引擎
    • 手写高性能Polaris网关
    • 手写高性能RPC项目
  • 高并发项目

    • 分布式IM即时通讯系统(新)
    • 分布式Seckill秒杀系统
    • 实战高并发设计模式
  • 微服务项目

    • 简易电商脚手架项目
  • 手撕源码

    • 手撕Spring6源码
🌍知识星球
  • 总览

    • 《书籍汇总》
  • 出版图书

    • 《深入理解高并发编程:核心原理与案例实战》
    • 《深入理解高并发编程:JDK核心技术》
    • 《深入高平行開發:深度原理&專案實戰》
    • 《深入理解分布式事务:原理与实战》
    • 《MySQL技术大全:开发、优化与运维实战》
    • 《海量数据处理与大数据技术实战》
  • 电子书籍

    • 《实战高并发设计模式》
    • 《深入理解高并发编程(第2版)》
    • 《深入理解高并发编程(第1版)》
    • 《从零开始手写RPC框架(基础篇)》
    • 《SpringCloud Alibaba实战》
    • 《冰河的渗透实战笔记》
    • 《MySQL核心知识手册》
    • 《Spring IOC核心技术》
  • 关于自己
  • 关于学习
  • 关于职场
B站
Github
导读
♻学习路线
  • 面试必问系列

    • 面试必问
  • 架构与模式

    • Java极简设计模式
    • 实战高并发设计模式
  • Java核心技术

    • Java8新特性
    • IOC核心技术
    • JVM调优技术
  • 容器化核心技术

    • Dockek核心技术
  • 分布式存储

    • Mycat核心技术
  • 数据库核心技术

    • MySQL基础篇
  • 服务器核心技术

    • Nginx核心技术
  • 渗透核心技术

    • 渗透实战技术
  • 底层技术
  • 源码分析
  • 基础案例
  • 实战案例
  • 面试
  • 系统架构
  • Spring6核心技术
  • 分布式事务

    • 分布式事务系列视频
  • SpringBoot
  • SpringCloudAlibaba
  • 🔥AI大模型项目

    • 一站式AI智能平台
    • AI智能客服系统
    • AI智能问答系统
    • 实战AI大模型
  • 中间件项目

    • 手写高性能Redis组件
    • 手写高性能脱敏组件
    • 手写线程池项目
    • 手写高性能SQL引擎
    • 手写高性能Polaris网关
    • 手写高性能RPC项目
  • 高并发项目

    • 分布式IM即时通讯系统(新)
    • 分布式Seckill秒杀系统
    • 实战高并发设计模式
  • 微服务项目

    • 简易电商脚手架项目
  • 手撕源码

    • 手撕Spring6源码
🌍知识星球
  • 总览

    • 《书籍汇总》
  • 出版图书

    • 《深入理解高并发编程:核心原理与案例实战》
    • 《深入理解高并发编程:JDK核心技术》
    • 《深入高平行開發:深度原理&專案實戰》
    • 《深入理解分布式事务:原理与实战》
    • 《MySQL技术大全:开发、优化与运维实战》
    • 《海量数据处理与大数据技术实战》
  • 电子书籍

    • 《实战高并发设计模式》
    • 《深入理解高并发编程(第2版)》
    • 《深入理解高并发编程(第1版)》
    • 《从零开始手写RPC框架(基础篇)》
    • 《SpringCloud Alibaba实战》
    • 《冰河的渗透实战笔记》
    • 《MySQL核心知识手册》
    • 《Spring IOC核心技术》
  • 关于自己
  • 关于学习
  • 关于职场
B站
Github
  • 开篇:专栏介绍

    • 开篇:实战AI大模型专栏正式开撸
  • 第01部分:DeepSeek API实战

    • 第01节:实战Java和Python调用DeepSeek API
    • 第02节:DeepSeek API流式调用实战
    • 第03节:基于SpringAI实现智能问答系统
  • 第02部分:部署AI大模型

    • 第01节:DeepSeek本地部署+知识库+联网搜索
    • 第02节:DeepSeek R1蒸馏模型组本地部署与调用
    • 第03节:DeepSeek R1蒸馏模型组Ollama调用
    • 第04节:基于Windows系统部署DeepSeek多模态生成模型
    • 第05节:基于Ubuntu系统部署DeepSeek多模态生成模型
    • 第06节:基于Ollama+OpenWebUI和DeepSeek-R1本地部署AI对话系统
    • 第07节:Sealos Cloud+K8S一键脚本部署
    • 第08节:私有化部署Sealos Cloud+Devbox+Minio
  • 第03部分:生成AI应用

    • 第01节:构建生成式AI应用-安装Ollama+Dify
    • 第02节:构建生成式AI应用-接入DeepSeek大模型
    • 第03节:通过Ollama+Dify+DeepSeek+searxng创建Agent应用
    • 第04节:通过Ollama+Dify+Qwen3创建Agent应用
    • 第05节:通过Dify实现构建AI图片生成应用
    • 第06节:基于Dify+llama3+Stable Diffusion搭建AI图片生成应用
    • 第07节:基于Dify+deepseekR1搭建文章理解助手
    • 第08节:基于Dify+deepseekR1搭建智能客服机器人
    • 第09节:基于MCP插件加入高德地图MCP Server
    • 第10节:搭建云IDE平台并安装Dify
    • 第11节:基于ACE-Step搭建生成式AI音乐应用
  • 第04部分:AI数字人应用

    • 第01节:实践QEMU-KVM 虚拟化
    • 第02节:基于Dify chatflow工作流生成专业级提示词
    • 第03节:基于Awesome-Digital-Human-Live打造AI数字人
    • 第04节:基于多个大模型改写数字人应用(代码版)
    • 第05节:基于开源数字人硅基heygem生成AI数字人
  • 第05部分:增强与优化

    • 第01节:增强优化ComfyUI并安装插件
    • 第02节:从源码到Docker部署Qwen3-VL接口
    • 第03节:分离部署Duix.Avatar服务端和客户端
  • 专栏总结

    • 总结:实战AI大模型整体专栏总结

《实战AI大模型》生成AI应用-第08节:基于Dify+deepseekR1搭建智能客服机器人

作者:冰河
星球:http://m6z.cn/6aeFbs
博客:https://binghe.site
文章汇总:https://binghe.site/md/all/all.html
源码获取地址:https://t.zsxq.com/0dhvFs5oR

大家好,我是冰河~~

Dify是一个开源的大语言模型(LLM)应用开发平台,旨在简化和加速生成式AI应用的创建和部署。该平台结合了后端即服务(Backend as Service, BaaS)和LLMOps的理念,为开发者提供了一个用户友好的界面和一系列强大的工具,使他们能够快速搭建生产级的AI应用。今天,我们就基于Dify+deepseekR1搭建智能客服机器人。

一、配置环境

1.1 环境信息

今天,我们部署DeepSeek的环境如下所示。

版本信息如下:

  • 操作系统:centos 7.9

  • docker版本:20.10.5-3

1.2 安装Docker环境

采用阿里云镜像源加速Docker安装过程,并进行性能优化配置:

yum install -y yum-utils device-mapper-persistent-data lvm2
yum install yum-utils -y
yum-config-manager --add-repo http://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo
yum list docker-ce --showduplicates
yum install docker-ce-cli-20.10.5-3.el7 docker-ce-20.10.5-3.el7 -y

Docker引擎优化配置:

mkdir -p /etc/docker
cat > /etc/docker/daemon.json << EOF
{
    "max-concurrent-downloads": 10,
    "log-driver": "json-file",
    "log-level": "warn",
    "log-opts": {
        "max-size": "100m",
        "max-file": "3"
    },
    "live-restore": true,
    "exec-opts": ["native.cgroupdriver=systemd"],
    "registry-mirrors": ["https://docker.mirrors.ustc.edu.cn"],
    "storage-driver": "overlay2",
    "storage-opts": [
        "overlay2.override_kernel_check=true"
    ]
}
EOF

关键配置参数解析:

  • max-concurrent-downloads:提升镜像拉取速度
  • live-restore:确保容器在Docker守护进程重启时不中断
  • registry-mirrors:配置国内镜像源加速下载
  • storage-driver:使用overlay2文件系统提高性能

启动并验证Docker服务:

systemctl daemon-reload
systemctl enable docker
systemctl restart docker
docker info | grep "Server Version"

二、部署Ollama

2.1 安装Ollama

选择Ollama作为模型服务框架,因其轻量化和易用性:

docker run --rm -v /tmp:/mnt swr.cn-south-1.myhuaweicloud.com/migrator/ollama-bin:0.5.7 cp /ollama /mnt
mv /tmp/ollama /usr/bin/
ollama -v

2.2 将ollama纳入systemd管理

将Ollama配置为systemd服务,确保服务稳定性和自动恢复

cat > /etc/systemd/system/ollama.service << EOF
[Unit]
Description=Ollama Service
After=network-online.target

[Service]
Environment="HOME=/root"
ExecStart=/usr/bin/ollama serve
Restart=always
RestartSec=3

[Install]
WantedBy=default.target
EOF

2.3 配置自启动

启动ollama并开启自启动:

systemctl enable ollama
systemctl start ollama
systemctl status ollama

效果如下所示。

查看完整文章

加入冰河技术知识星球,解锁完整技术文章、小册、视频与完整代码

在 GitHub 上编辑此页
上次更新: 2026/4/29 16:18
Contributors: binghe001
Prev
第07节:基于Dify+deepseekR1搭建文章理解助手
Next
第09节:基于MCP插件加入高德地图MCP Server
阅读全文
×

扫码或搜索:冰河技术
发送:290992
即可立即永久解锁本站全部文章

星球会员
跳转链接