在AI技术飞速发展的当下,私有化部署大模型应用成为企业与个人保障数据安全、掌控 AI 能力的核心需求。Dify 作为开源的 LLM 应用开发平台,能快速搭建知识库、对话助手等 AI 应用;deepseek 作为性能优异的开源大模型,可提供强大的推理与语义理解能力;而搬瓦工 VPS 凭借高性价比、易操作的优势,成为私有化部署的理想载体。
本文将带你通过 15 分钟的实操,在搬瓦工 VPS 上完成 Dify 部署与 DeepSeek 集成,打造专属私有知识库。

一、部署前准备:基础环境与资源配置
1. 搬瓦工 VPS 选购与初始化
首先需选择适配的搬瓦工 VPS 套餐,部署 Dify+DeepSeek 建议配置:2 核 CPU、4GB 内存、40GB SSD 存储,系统选择 Ubuntu 20.04/22.04(兼容性最佳)。
搬瓦工套餐推荐
| 场景 | 推荐套餐 | 配置 | 价格 | 够不够用 |
|---|---|---|---|---|
| 入门体验 | CN2 GIA-E 1GB | 2 核 / 1GB / 20GB SSD | $49.99/季度 | ⚠️ 需加 Swap,只能跑基础功能 |
| 稳定使用 | CN2 GIA-E 2GB | 3 核 / 2GB / 40GB SSD | $89.99/季度 | ⚠️ 加 Swap 后基本可用 |
| 推荐 | HK 2GB | 2 核 / 2GB / 40GB SSD | $89.99/月 | ✅ 延迟低,加 Swap 后稳定 |
| 生产部署 | HK 4GB | 4 核 / 4GB / 80GB SSD | $155.99/月 | ✅ 从容运行,可跑知识库 |
购买后登录搬瓦工后台,获取 VPS 的 IP 地址、root 密码,通过 SSH 工具(如 Xshell、FinalShell)连接服务器,执行基础更新命令:
运行
apt update && apt upgrade -y
2. 核心依赖安装:Docker 与 Ollama
Dify 采用 Docker 容器化部署,Ollama 用于本地运行 DeepSeek 模型,两者是部署的核心依赖,安装命令如下:
运行
# 安装Docker
curl -fsSL https://get.docker.com | sh
sudo systemctl enable docker && sudo systemctl start docker
# 安装Docker Compose
sudo curl -L “https://github.com/docker/compose/releases/download/v2.20.0/docker-compose-$(uname -s)-$(uname -m)” -o /usr/local/bin/docker-compose
sudo chmod +x /usr/local/bin/docker-compose
# 安装Ollama(用于部署DeepSeek)
curl -fsSL https://ollama.com/install.sh | sh
安装完成后,验证 Docker 与 Ollama 是否正常运行:
运行
docker –version
docker-compose –version
ollama –version
3. DeepSeek 模型拉取
通过 Ollama 拉取 DeepSeek 模型,推荐选择deepseek-r1:7b(兼顾性能与资源占用),同时拉取 Embedding 模型 bge-m3(用于知识库向量处理):
运行
ollama pull deepseek-r1:7b
ollama pull bge-m3
拉取完成后,启动 Ollama 服务,确保模型可被 Dify 调用:
运行
ollama serve
二、Dify 部署:10 分钟完成容器化搭建
1. 克隆 Dify 源码
通过 Git 克隆 Dify 官方仓库,进入 Docker 部署目录:
运行
git clone https://github.com/langgenius/dify.git
cd dify/docker
2. 配置环境变量
复制示例环境配置文件,修改关键参数(如数据库密码、访问端口),避免端口冲突:
运行
cp .env.example .env
# 编辑.env文件,按需修改端口(如80端口被占用,改为8080)
vim .env
关键配置项参考:
plaintext
# 数据库配置
POSTGRES_PASSWORD=自定义强密码
# 访问端口(默认80,修改为8080)
EXPOSE_NGINX_PORT=8080
EXPOSE_NGINX_SSL_PORT=8443
# 外部访问地址(填写VPS公网IP)
APP_WEB_URL=http://你的VPS公网IP:8080
3. 一键启动 Dify 服务
执行 Docker Compose 命令,启动 Dify 所有容器(首次启动需下载镜像,约 5 分钟):
运行
docker-compose up -d
启动完成后,验证容器状态:
运行
docker-compose ps
所有容器显示Up状态,即 Dify 部署成功。此时通过浏览器访问http://你的VPS公网IP:8080,进入 Dify 初始化页面,设置管理员账号与密码。
三、DeepSeek 集成:5 分钟完成模型对接
1. 进入 Dify 模型配置页
登录 Dify 后台,点击右上角个人资料→设置→模型提供商,找到 Ollama 选项并点击添加模型。
2. 配置 DeepSeek 模型参数
在弹出的配置窗口中,填写以下信息(关键参数需准确):
模型名称:deepseek-r1:7b(与 Ollama 拉取的模型名一致)
基础 URL:http://localhost:11434(Ollama 默认服务地址)
模型类型:选择系统推理模型(用于对话、知识库推理)
Embedding 模型:选择bge-m3(用于知识库文档向量化)
填写完成后点击保存,Dify 会自动校验模型连接,校验成功即完成集成。
四、私有知识库搭建:上传文档并测试应用
1. 创建知识库
在 Dify 后台点击知识库→创建知识库,输入名称(如 “私有企业知识库”),选择DeepSeek-r1:7b作为推理模型、bge-m3作为 Embedding 模型,点击创建。
2. 上传文档并处理
进入新建的知识库,点击上传文件,支持 PDF、Word、Markdown 等格式,上传后 Dify 会自动对文档进行分段、向量化处理(处理速度与文档大小相关,小文档约 1 分钟完成)。
3. 创建对话应用并测试
点击应用→创建应用→聊天助手,选择刚创建的知识库,设置应用名称,选择DeepSeek-r1:7b作为模型,点击创建。进入应用预览页面,输入与知识库相关的问题(如 “文档中的核心观点是什么”),即可触发 DeepSeek 结合知识库内容进行精准回答,验证私有化知识库是否正常运行。
五、常见问题与优化建议
1. 常见问题排查
模型连接失败:检查 Ollama 服务是否启动,基础 URL 是否正确,VPS 防火墙是否开放 11434 端口。
Dify 访问超时:确认 VPS 公网 IP 可访问,Docker 容器是否正常运行,端口是否在防火墙中放行。
知识库处理缓慢:升级 VPS 内存(建议≥4GB),或选择更小的 DeepSeek 模型(如 deepseek-r1:1.5b)。
2. 性能优化方案
资源配置:生产环境建议升级 VPS 至 4 核 8GB,提升模型推理与知识库处理速度。
端口安全:通过防火墙仅开放必要端口(8080、11434),避免未授权访问。
数据备份:定期备份 Dify 的 Docker 数据卷与知识库文件,防止数据丢失。
六、总结与价值
通过搬瓦工 VPS 部署 Dify 并集成 DeepSeek,仅需 15 分钟即可完成私有 AI 知识库的搭建,既解决了云端 AI 服务的数据安全隐患,又能实现低成本、自主可控的 AI 应用开发。无论是个人知识管理、企业内部文档问答,还是客户服务助手,这套方案都能快速落地,为私有化 AI 部署提供了高效、便捷的实践路径。后续可进一步探索 Dify 的工作流、插件功能,结合 DeepSeek 的能力,打造更丰富的私有化 AI 应用生态。
本文来源:https://www.yuntue.com/post/239428.html | 云服务器网,转载请注明出处!

微信扫一扫打赏
支付宝扫一扫打赏