Lazy loaded image
本地搭建DeepSeek和知识库,Dify做智能体Agent
字数 681阅读时长 2 分钟
2025-2-21
2025-3-4
type
status
date
slug
summary
tags
category
icon
password

一、基础信息

1、硬件环境:
CPU ≥ 2 核心
显存/RAM ≥ 16 GiB(推荐)
2、软件
(1)Ollama
Ollama 是一款跨平台的大模型管理客户端(MacOS、Windows、Linux),用于无缝部署大型语言模型(LLM),如 DeepSeek、Llama、Mistral 等。它提供一键部署功能,所有数据均保存在本地,确保数据隐私和安全性。
(2)Dify
Dify 是一个开源的 AI 应用开发平台,提供完整的私有化部署方案。通过将本地部署的 DeepSeek 服务集成到 Dify 平台,企业可以在保护数据隐私的同时,在本地构建强大的 AI 应用。
(3)Docker
用于拉取镜像并运行,简化部署流程

二、部署DeepSeek-R1

1、部署Ollama
(1)打开官网
(2)下载对应系统的Ollama
(3)安装
(4)验证——终端执行
ollama -v
2、使用Ollama安装DeepSeek-r1模型
(1)安装DeepSeek模型
ollama run deepseek-r1:7b
越狱版:ollama run huihui_ai/deepseek-r1-abliterated:7b
注:请根据本机配置选择合适的DeepSeek模型。推荐安装7B尺寸模型,需要下载约4.7GB数据。可在Ollama官网搜索并查看模型大小。
(2)安装后验证
安装完成后直接输入问题即可查看回复

三、部署Dify社区版

1、下载代码
(1)Git方式下载
(2)Web方式下载
2、进入目录
cd dify/docker
3、复制配置文件
cp .env.example .env
4、Docker配置代理(已配置可跳过此步骤)
5、使用Docker拉取镜像并运行
docker compose up -d

四、设置 DeepSeek 接入至 Dify

1、浏览器打开Dify,初始化管理员信息
2、设置模型
右上角头像 → 设置 → 模型供应商 → Ollama
3、设置模型信息
模型名称:deepseek-r1:7b
最大token:32768
注:容器部署Dify时,地址需填写host.docker.internal或本机IP,不能使用127.0.0.1
4、创建知识库
可通过拖拽文件上传或抓取网页内容的方式导入数据
5、创建Agent智能体
参考文章:
1、在MAC系统下安装Docker、Dify以及Docker镜像加速
2、本地搭建Dify
3、接入 Ollama 部署的本地模型
4、越狱版-无审查无限制
5、Cherry Studio调用模型
 
上一篇
Cursor UI 提示词
下一篇
AI 辅助开发指南