type
status
date
slug
summary
tags
category
icon
password
一、基础信息
1、硬件环境:
CPU ≥ 2 核心
显存/RAM ≥ 16 GiB(推荐)
2、软件
(1)Ollama
Ollama 是一款跨平台的大模型管理客户端(MacOS、Windows、Linux),用于无缝部署大型语言模型(LLM),如 DeepSeek、Llama、Mistral 等。它提供一键部署功能,所有数据均保存在本地,确保数据隐私和安全性。
(2)Dify
Dify 是一个开源的 AI 应用开发平台,提供完整的私有化部署方案。通过将本地部署的 DeepSeek 服务集成到 Dify 平台,企业可以在保护数据隐私的同时,在本地构建强大的 AI 应用。
(3)Docker
用于拉取镜像并运行,简化部署流程
二、部署DeepSeek-R1
1、部署Ollama
(1)打开官网
(2)下载对应系统的Ollama
(3)安装
(4)验证——终端执行
ollama -v
2、使用Ollama安装DeepSeek-r1模型
(1)安装DeepSeek模型
ollama run deepseek-r1:7b
越狱版:ollama run huihui_ai/deepseek-r1-abliterated:7b
注:请根据本机配置选择合适的DeepSeek模型。推荐安装7B尺寸模型,需要下载约4.7GB数据。可在Ollama官网搜索并查看模型大小。
(2)安装后验证
安装完成后直接输入问题即可查看回复
三、部署Dify社区版
1、下载代码
(1)Git方式下载
git clone https://github.com/langgenius/dify.git
(2)Web方式下载
2、进入目录
cd dify/docker
3、复制配置文件
cp .env.example .env
4、Docker配置代理(已配置可跳过此步骤)
5、使用Docker拉取镜像并运行
docker compose up -d
四、设置 DeepSeek 接入至 Dify
1、浏览器打开Dify,初始化管理员信息
2、设置模型
右上角头像 → 设置 → 模型供应商 → Ollama
3、设置模型信息
模型名称:deepseek-r1:7b
基础URL:http://本机ip:11434
最大token:32768
注:容器部署Dify时,地址需填写host.docker.internal或本机IP,不能使用127.0.0.1
4、创建知识库
可通过拖拽文件上传或抓取网页内容的方式导入数据
5、创建Agent智能体
参考文章:
1、在MAC系统下安装Docker、Dify以及Docker镜像加速
2、本地搭建Dify
3、接入 Ollama 部署的本地模型
4、越狱版-无审查无限制
5、Cherry Studio调用模型
- 作者:John
- 链接:我的博客/article/1a113b0d-3421-80f0-a1b2-d0edfa2cdd90
- 声明:本文采用 CC BY-NC-SA 4.0 许可协议,转载请注明出处。








