一、前提准备条件(在我的文章中都可找到)

1、安装ollama并本地部署了deepseek模型或其他AI模型(DeepSeek本地部署

2、安装docker(deepseek本地部署后,open WebUI安装

二、部署运行ragflow

1、下载ragflow的源码(https://github.com/infiniflow/ragflow

2、解压缩文件,并找到ragflow-main\docker文件夹下的.env文件,右键记事本打开

3、回到下载源码的那个界面,往下拉,找到一行代码,复制

docker compose -f docker-compose.yml up -d

4、回到ragflow-main\docker的文件夹下,输入cmd注意:需要先打开docker才行

5、如果出现以下报错情况

6、重新输入一遍docker compose -f docker-compose.yml up -d即可正常启动!

7、在网页窗口输入localhost或者localhost:80,回车即可跳转到RAGFlow的页面(注册登录即可)

8、进入页面,点击右上角那个图标

9、添加模型

10、按照下面内容添加模型

http://host.docker.internal:11434

11、返回首页,创建知识库

12、上传文件,待文件解析完成

13、解析完成后,返回首页,点击“聊天”,即可开始对话

三、拓展补充:修改RAGFlow的80端口号为其他端口号

※   简单来说,就是下面的这个文件,右键文本编辑,找到80端口号,修改为其他数字

然后在D:\software\docker\ragflow-main\docker这个路径下,打开cmd,输入下面代码:

停止当前运行的容器:

docker compose -f docker-compose.yml down

重新启动服务:

docker compose -f docker-compose.yml up -d

四、拓展补充:解决打开docker后,关闭镜像自动启动的问题

1、第一步:打开docker中的设置

2、第二步:打开cmd命令提示窗口

docker update --restart=no 容器名或ID

Logo

火山引擎开发者社区是火山引擎打造的AI技术生态平台,聚焦Agent与大模型开发,提供豆包系列模型(图像/视频/视觉)、智能分析与会话工具,并配套评测集、动手实验室及行业案例库。社区通过技术沙龙、挑战赛等活动促进开发者成长,新用户可领50万Tokens权益,助力构建智能应用。

更多推荐