保姆级教程!超详细Dify+RAGFlow从部署到集成,小白也能轻松实践,速藏!
本文旨在提供一套系统、完整的部署指南,避坑环境搭建、端口冲突、API配置等关键环节,帮助小白顺利实现Dify与RAGFlow的联合部署与应用。
写在前面
为什么采用Dify+RAGFlow的方案?

采用Dify+RAGFlow组合方案,能充分发挥两者优势,高效落地企业级智能应用。Dify凭借可视化操作界面和灵活的工作流编排能力,可快速对接主流大模型,降低开发门槛,帮助企业敏捷搭建智能问答、对话交互等应用。而RAGFlow专注于RAG技术优化,通过先进的向量检索与语义理解技术,深度整合企业内文档、数据库等多种数据源,精准匹配用户需求,有效减少大模型幻觉问题。两者协同工作,Dify负责上层应用部署与交互体验设计,RAGFlow作为底层知识引擎提供数据支撑,最终形成从知识管理、精准检索到智能应答的完整闭环,满足企业复杂场景下的智能化需求。

本文的特色:

在学习部署Dify和RAGFlow的过程中,我发现网络上缺乏完整的0-1教学内容。现有的教程大多只涉及单一工具的部署,当尝试同时部署时,常出现端口冲突问题,且对于外部知识库API的配置方法也鲜有说明。即使少数教程有所涉及,内容也存在不完整、步骤缺失等问题,导致初学者难以完成实践操作。
因此,本文旨在提供一套系统、完整的部署指南,避坑环境搭建、端口冲突、API配置等关键环节,帮助小白顺利实现Dify与RAGFlow的联合部署与应用。
01
配置Ollama
这步的目的是安装本地大模型供Dify调用,如果已通过LMStudio安装本地大模型或者接入在线大模型均可跳过此步骤。
1、安装Ollama
https://ollama.com/


2、修改模型安装路径
Ollama默认会把模型安装到C盘,导致C盘爆炸,所以要修改模型安装路径
(1)选择一个空闲磁盘创建专门存放模型的文件

(2)打开环境变量-系统变量-新建,创建一个变量名为Ollama_models,变量值为浏览目录-存放模型文件的路径

(3)重启电脑,检查环境变量是否还存在
3、下载模型
(1)打开https://ollama.com/search-选择模型-复制代码

(2)Win+R输入cmd运行命令行-粘贴代码

(3)下载完成检查是否安装到模型所选路径
(4)测试大模型是否成功安装
cmd打开命令行
输入ollama,显示所有命令

输入ollama list,显示已安装的模型列表

输入ollama run deepseek-r1:1.5b

02
配置Docker
1、安装Docker
https://www.docker.com/








2、修改Docker镜像路径
Docker默认会把镜像安装到C盘,导致C盘爆炸,所以要修改安装路径

3、勾选Enable host networking

4、验证是否安装成功
Win+R输入cmd运行命令行-输入Docker,若出现Docker命令则代表安装成功

03
配置RAGFlow
1、下载RAGFlow并解压
https://github.com/infiniflow/RAGFlow


2、修改配置
RAGFlow默认会下载轻量版本,轻量版是没有自带的Embedding模型的,需要单独下载部署Embedding模型(类似第一步中使用Ollama部署DeepSeek-R1),我觉得比较麻烦,所以在这一步直接修改配置使其下载全量版。
(1)进入RAGFlow-main\Docker,使用记事本打开.env文件

(2)找到RAGFlow_IMAGE=infiniflow/RAGFlow:vx.xx.x-slim


3、安装Docker镜像
(1)进入Docker文件,选中文件路径输入cmd+回车



(2)安装镜像
不要用官方给的命令安装(docker compose -f docker-compose.yml up -d),因为安装后容器名称默认为docker,且如果再使用官方的命令安装Dify,会和RAGFlow共用一个容器,不易区分,因此需要重新设置容器名称
输入以下代码安装,大概需要20分钟
| docker compose -p ragflow -f docker-compose.yml up -d |

(3)安装成功后会显示如下图


4、打开RAGFlow
(1)在浏览器中输入http://localhost:80(RAGFlow默认使用80端口打开)

(2)注册账号进行登录

04
配置Dify
1、下载Dify并解压
https://github.com/langgenius/dify


2、修改端口
若Dify和RAGFlow在同一主机安装,则会出现端口被占用的情况(80端口被RAGFlow占用),需要提前修改端口。

(1)将.env.example文件修改为.env文件

(2)打开.env和将docker-compose.yaml文件,将所有的EXPOSE_NGINX_PORT=80改为5201,EXPOSE_NGINX_SSL_PORT改为8443,建议选用5001-9999之间的数字



3、安装Docker镜像
(1)进入Docker文件,选中文件路径输入cmd+回车

(2)安装镜像
不要用官方给的命令安装,输入以下代码安装
| docker compose -p dify -f docker-compose.yaml up -d |



4、打开Dify
(1)在浏览器中输入http://localhost:5201/install

(2)注册账号进行登录

05
在RAGFlow中配置知识库
1、添加本地模型
(1)Ollama
添加Ollama模型-按图示选择(模型名称必须为全称,不能自己设置)

(2)LMStudio
启动LMStudio并加载一个本地模型-开启在局域网内提供服务-在RAGFlow中按图示添加


2、添加在线模型
选择一个模型平台-进入开放平台-注册账号-申请APIKey-输入

3、设置默认模型


4、创建知识库
(1)输入名称

(2)配置解析文档方案

(3)上传并解析文件


(4)检索测试

06
在Dify中连接RAGFlow知识库
1、连接外部知识库


2、任意填写外部知识库名称、知识库描述
3、添加外部知识库API

(1)name:任意写
(2)API Endpoint:如果没改RAGFlow的端口,则默认9380,如果改了可在Docker中查看并自行更换
| http://host.docker.internal:9380/api/v1/dify |

(3)API Key:打开RAGFlow-API-创建APIKey



4、外部知识库ID
打开RAGFlow-进入知识库页面-网址中的id=即为id



5、召回测试

07
在Dify中创建应用测试
1、配置模型
本步骤跟在RAGFlow中配置本地/在线模型一样,只多了安装对应模型插件的工作



2、创建应用编排测试



至此,从本地部署到连接外部知识库的教程已完结。
08
RAGFlow后续的探索方向
在我使用RAGFlow进行PDF文档解析时遇到了一个问题,RAGFlow解析部分PDF的效果并不好,换了几个解析方案都没有解决,如果有懂的朋友欢迎给我指点方向🙏。


后续我要研究不同的文档适合的解析方案以提高检索的质量(我们单位除了常规的PDF、Word等文档外,还会有一些科研数据,格式五花八门),如果大家在这方面有什么心得也请不吝赐教。
大模型算是目前当之无愧最火的一个方向了,算是新时代的风口!有小伙伴觉得,作为新领域、新方向人才需求必然相当大,与之相应的人才缺乏、人才竞争自然也会更少,那转行去做大模型是不是一个更好的选择呢?是不是更好就业呢?是不是就暂时能抵抗35岁中年危机呢?
答案当然是这样,大模型必然是新风口!
那如何学习大模型 ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。但是具体到个人,只能说是:
最先掌握AI的人,将会比较晚掌握AI的人有竞争优势。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
但现在很多想入行大模型的人苦于现在网上的大模型老课程老教材,学也不是不学也不是,基于此我用做产品的心态来打磨这份大模型教程,深挖痛点并持续修改了近100余次后,终于把整个AI大模型的学习路线完善出来!

在这个版本当中:
您只需要听我讲,跟着我做即可,为了让学习的道路变得更简单,这份大模型路线+学习教程已经给大家整理并打包分享出来, 😝有需要的小伙伴,可以 扫描下方二维码领取🆓↓↓↓

一、大模型经典书籍(免费分享)
AI大模型已经成为了当今科技领域的一大热点,那以下这些大模型书籍就是非常不错的学习资源。

二、640套大模型报告(免费分享)
这套包含640份报告的合集,涵盖了大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。(几乎涵盖所有行业)
三、大模型系列视频教程(免费分享)

四、2025最新大模型学习路线(免费分享)
我们把学习路线分成L1到L4四个阶段,一步步带你从入门到进阶,从理论到实战。

L1阶段:启航篇丨极速破界AI新时代
L1阶段:了解大模型的基础知识,以及大模型在各个行业的应用和分析,学习理解大模型的核心原理、关键技术以及大模型应用场景。

L2阶段:攻坚篇丨RAG开发实战工坊
L2阶段:AI大模型RAG应用开发工程,主要学习RAG检索增强生成:包括Naive RAG、Advanced-RAG以及RAG性能评估,还有GraphRAG在内的多个RAG热门项目的分析。

L3阶段:跃迁篇丨Agent智能体架构设计
L3阶段:大模型Agent应用架构进阶实现,主要学习LangChain、 LIamaIndex框架,也会学习到AutoGPT、 MetaGPT等多Agent系统,打造Agent智能体。

L4阶段:精进篇丨模型微调与私有化部署
L4阶段:大模型的微调和私有化部署,更加深入的探讨Transformer架构,学习大模型的微调技术,利用DeepSpeed、Lamam Factory等工具快速进行模型微调,并通过Ollama、vLLM等推理部署框架,实现模型的快速部署。

L5阶段:专题集丨特训篇 【录播课】

全套的AI大模型学习资源已经整理打包,有需要的小伙伴可以微信扫描下方二维码,免费领取

火山引擎开发者社区是火山引擎打造的AI技术生态平台,聚焦Agent与大模型开发,提供豆包系列模型(图像/视频/视觉)、智能分析与会话工具,并配套评测集、动手实验室及行业案例库。社区通过技术沙龙、挑战赛等活动促进开发者成长,新用户可领50万Tokens权益,助力构建智能应用。
更多推荐
所有评论(0)