小白1小时搞定本地大模型!Ollama+DeepSeek+Dify全流程攻略:零代码搭私有AI
摘要:本文介绍了零代码本地部署大模型的完整流程,使用Ollama+DeepSeek+Dify组合方案,解决数据隐私、离线使用和成本控制三大痛点。教程详细拆解了Ollama环境安装(含路径优化)、DeepSeek模型部署(支持低配设备)、Dify可视化平台接入等关键步骤,并提供了Chatbox备选方案。特别总结了5个高频避坑点,如模型路径修改后需重启、名称需严格匹配等。最后指出该方案可应用于私域知识
注:此文章内容均节选自充电了么创始人,CEO兼CTO陈敬雷老师的新书《GPT多模态大模型与AI Agent智能体》(跟我一起学人工智能)【陈敬雷编著】【清华大学出版社】
清华《GPT多模态大模型与AI Agent智能体》书籍配套视频课程【陈敬雷】
文章目录
GPT多模态大模型与AI Agent智能体系列一百零六
小白1小时搞定本地大模型!Ollama+DeepSeek+Dify全流程攻略:零代码搭私有AI
本地大模型部署实战总结:从“不会装”到“能用好”的零门槛指南
在云端大模型API调用需付费、数据隐私难保障的当下,“本地部署大模型”成了开发者、职场人甚至AI爱好者的刚需——但“看不懂命令行”“配置老出错”“部署后没界面”却让多数人望而却步。这篇CSDN教程恰恰以“小白友好”为核心,用Ollama(轻量部署工具)+DeepSeek(国产强模型)+Dify(可视化平台)的组合,拆解出“安装-部署-接入-使用”的完整流程,甚至低配置电脑也能操作。以下是3000字核心总结,帮你快速吃透本地大模型部署的关键步骤与避坑要点:
一、为什么要选“Ollama+DeepSeek+Dify”?先搞懂本地部署的核心价值
在学步骤前,得先明白“为什么要折腾本地部署”——这也是教程开篇就戳中的3个核心痛点,恰好是工具组合能解决的:
- 数据隐私不用愁:敏感数据(如公司文档、个人对话)不用上传云端,全程在本地运行,避免“数据泄露”风险;
- 离线可用更灵活:出差、断网时也能调用大模型,比如写代码、查资料,不受网络限制;
- 长期使用成本低:不用按token付费,一次部署后反复用,尤其适合频繁调用的场景(如日常办公、学习)。
而“Ollama+DeepSeek+Dify”的组合,刚好解决小白的“三大怕”:
- 怕“装不上”:Ollama安装仅需3步,Windows一路下一步,Linux/macOS一键命令;
- 怕“选不对模型”:DeepSeek有轻量版(1.5B参数),低配置电脑也能跑,性能还能打;
- 怕“用着麻烦”:Dify提供可视化界面,不用记命令行;Chatbox补全“无界面”短板,小白也能点鼠标操作。
二、第一步:Ollama安装——3步搞定,不同系统都适配
Ollama是整个流程的“地基”——它负责提供大模型的运行环境,不用你手动配置复杂的依赖(如CUDA、PyTorch),小白跟着做就能装成:
1. 分系统安装:Windows/Linux/macOS各有妙招
-
Windows用户(最常见):
- 官网下载:打开https://ollama.com/(若访问不了,作者提供网盘,私信“1235”获取安装包);
- 傻瓜安装:双击安装包,一路点“下一步”,默认装在C盘(后面教你改路径);
- 验证成功:打开CMD(命令提示符),输入
ollama,若显示“Usage: ollama [command]”等提示,说明装好了。
-
Linux/macOS用户(更简单):
直接打开终端,输入一行命令:curl -fsSL https://ollama.com/install.sh | sh,等待自动安装完成,同样用ollama命令验证。
2. 关键优化:改模型下载路径,避免C盘爆满
很多小白装完发现“C盘越来越满”——因为Ollama默认把模型存在C盘,必须手动改路径,步骤超详细:
- 打开“此电脑”→右键“属性”→“高级系统设置”→“环境变量”;
- 在“系统变量”栏点“新建”:
- 变量名:
OLLAMA_MODELS - 变量值:你想存模型的路径(如
D:\AI\Models\Ollama,路径要自己先建好);
- 变量名:
- 必须重启Ollama:关闭所有CMD窗口,重新打开CMD,路径修改才生效(不重启的话,模型还是存C盘,这是高频坑!)。
三、第二步:DeepSeek部署——1条命令拉取,低配置也能跑
DeepSeek是“核心AI引擎”——教程选它是因为“轻量且能打”,比如1.5B参数版(deepseek-r1:1.5b)仅需4-5GB显存,笔记本也能流畅运行。部署分“在线”和“离线”,小白优先学在线(不用找资源,自动下载):
1. 在线部署:2步跑通DeepSeek
- 查模型名称:打开Ollama官网→点“Models”→搜索“DeepSeek”,找到对应模型(如
deepseek-r1:1.5b,名称必须和官网完全一致,错一个字母都拉不下来); - 命令行部署:
- 打开CMD,输入
ollama run deepseek-r1:1.5b,系统会自动下载模型(约4GB,取决于网速); - 下载完成后,CMD会进入对话模式,直接输入问题(如“写一段Python打印Hello World的代码”),模型就会实时回复。
- 打开CMD,输入
2. 常用操作:查看模型、再次运行
- 想知道自己装了哪些模型:CMD输入
ollama list,会显示模型名称和大小; - 下次想用DeepSeek:不用重新下载,直接输入
ollama run deepseek-r1:1.5b,秒进对话模式; - 模型选哪个?低配置(4GB显存)选1.5B,中配置(8GB显存)选7B,避免“显存不够闪退”。
3. 离线部署(可选):适合没网的场景
如果没网,可先从Hugging Face下载DeepSeek的.gguf格式模型文件,再通过“ModelFile”安装——教程提了这个方案,但重点给小白讲在线(更简单),想试离线的可参考作者后续指引。
四、第三步:Dify接入——可视化操作,不用记命令行
Ollama+DeepSeek部署后,默认只有CMD界面,小白用着费劲——Dify的作用就是“给大模型装个可视化操作台”,能建对话应用、搭工作流,甚至连知识库都能加。核心是“接入Ollama部署的DeepSeek”,步骤拆成3个关键环节:
1. 前提:先装Dify(教程提“看上期文章”,这里补基础)
若没装Dify,用Docker最快(小白也能操作):
- 先装Docker(官网下载,一路下一步);
- 打开终端,输入命令:
docker run -d --name dify -p 7860:7860 -v /data/dify:/data deepseek/dify:latest; - 验证:浏览器输入
http://localhost:7860,能打开Dify登录页就说明装好了。
2. 关键配置:给Dify装“Ollama插件”
- 登录Dify→点右上角头像→“设置”→“模型供应商”→找到“Ollama”→点“安装”(等待1-2分钟);
- 配置“两个模型”(小白常漏一个,导致用不了):
- LLM模型(负责对话):
- 模型名称:填Ollama里的DeepSeek名称(如
deepseek-r1:1.5b,用ollama list确认); - 基础URL:若Dify是Docker部署,填
http://host.docker.internal:11434(Ollama默认端口11434); - 其他参数默认,点“保存”。
- 模型名称:填Ollama里的DeepSeek名称(如
- Text Embedding模型(负责知识库,把文字转成向量):
- 模型名称:同上(用DeepSeek兼职,小白不用额外下模型);
- 基础URL:和LLM一样,保存即可。
- LLM模型(负责对话):
3. 避坑:保存失败?改.env文件+重启Docker
很多小白点“保存”后按钮变灰,半天没反应——这是Docker部署的常见问题,教程给了解决方案:
- 找到Dify的工程文件→进入“docker”文件夹→用记事本打开
.env文件; - 在文件最后加两行:
CUSTOM_MODEL_ENABLED=true OLLAMA_API_BASE_URL=host.docker.internal:11434 - 重启Dify的Docker服务:
- 打开Docker→找到“dify”容器→点“重启”;
- 重新运行DeepSeek(CMD输入
ollama run deepseek-r1:1.5b);
- 再回Dify刷新,模型就会显示“已启用”,此时就能用可视化界面调用本地DeepSeek了。
4. 实战:用Dify建个“AI对话应用”
- 回到Dify“工作室”→新建“工作流”应用→输入名称(如“本地DeepSeek对话”);
- 拖入“LLM节点”→右侧配置→“模型”选刚装的
deepseek-r1:1.5b; - 点“运行”,输入问题(如“解释什么是大模型”),就能看到DeepSeek在Dify里实时回复,不用再切CMD!
五、第四步:Chatbox使用——更轻量的可视化界面
若觉得Dify有点重,教程还补了“备选方案”——Chatbox,一款轻量化AI客户端,专门解决“想要简单界面”的需求,步骤更简单:
1. 下载安装:3步搞定
- 打开Chatbox官网(https://chatboxai.app/zh?ref=tian)→下载对应系统的安装包;
- 双击安装,一路下一步(无复杂配置);
- 打开Chatbox,会弹“选择模型来源”,选“本地模型/Ollama”。
2. 配置连接:必须先启动模型!
- 先确保Ollama和DeepSeek已运行(CMD输入
ollama run deepseek-r1:1.5b,别关CMD窗口); - 回到Chatbox→点“设置”→“模型配置”:
- API域名:填
http://localhost:11434; - 模型名称:填
deepseek-r1:1.5b(和Ollama里一致);
- API域名:填
- 点“保存”→新建对话,就能在Chatbox里用可视化界面聊DeepSeek,支持发图片、调字体,比CMD友好太多!
六、小白必看:5个高频坑+避坑指南
教程里藏了很多“小白踩坑点”,总结出来帮你少走弯路:
- 改Ollama模型路径后必须重启:不重启的话,模型还是存C盘,迟早满盘;
- 先运行模型,再接入Dify/Chatbox:没启动DeepSeek就去配置,Dify会显示“连接失败”,一定要先在CMD里跑
ollama run 模型名; - 模型名称必须和Ollama官网一致:比如
deepseek-r1:1.5b不能写成deepseek-1.5b,差个“r1”就拉不到模型; - Dify的基础URL别写错:Docker部署填
http://host.docker.internal:11434,本地直接装Dify填http://localhost:11434,填反了会失败; - 低配置别选太大模型:4GB显存选1.5B,8GB选7B,强行装33B会闪退,别贪大。
七、进阶价值:学完能做什么?还有免费资源领
教程不只是“教部署”,还帮小白规划了“后续路”——学会本地大模型后,能做3件实用的事:
- 私域知识库:把公司文档、个人笔记导入Dify,用DeepSeek做“专属问答助手”,比如查规章制度、写报告;
- 代码辅助:用DeepSeek-Coder(DeepSeek的代码版)本地写代码,实时补全、查bug,不用连GitHub Copilot;
- 离线AI工具:出差时用Chatbox调用模型,写邮件、做PPT大纲,没网也能高效工作。
更贴心的是,作者提供了“大模型全套学习资源”,免费领取后能进阶:
- 基础:AI大模型学习路线图(7个阶段,从入门到实战);
- 实战:企业级脱敏项目(RAG医疗问答、AI客服);
- 求职:LLM/AI产品经理面试题(帮你转AI岗);
- 工具:DeepSeek部署包+技巧大全(解决后续部署问题)。
领取方式是微信扫码(教程文末有二维码),对小白来说,相当于“一次部署,还拿到了完整的学习礼包”。
总结:小白也能玩转本地大模型的核心逻辑
这篇教程之所以适合小白,核心在于“把复杂技术拆成‘傻瓜步骤’”——不用懂Docker原理,不用会写代码,跟着命令行和截图走,1小时就能搭好“Ollama+DeepSeek+Dify”的本地AI系统。
它解决的不只是“部署”问题,更是小白的“心理门槛”——让你明白“本地大模型不是大神的专利,低配置电脑也能玩”,而且数据安全、成本可控。如果想试试“自己的AI自己管”,这套流程就是最靠谱的入门路径,跟着做,你也能拥有专属的本地大模型!
更多技术内容
更多技术内容可参见
清华《GPT多模态大模型与AI Agent智能体》书籍配套视频【陈敬雷】。
更多的技术交流和探讨也欢迎加我个人微信chenjinglei66。
总结
此文章有对应的配套新书教材和视频:
【配套新书教材】
《GPT多模态大模型与AI Agent智能体》(跟我一起学人工智能)【陈敬雷编著】【清华大学出版社】
新书特色:《GPT多模态大模型与AI Agent智能体》(跟我一起学人工智能)是一本2025年清华大学出版社出版的图书,作者是陈敬雷,本书深入探讨了GPT多模态大模型与AI Agent智能体的技术原理及其在企业中的应用落地。
全书共8章,从大模型技术原理切入,逐步深入大模型训练及微调,还介绍了众多国内外主流大模型。LangChain技术、RAG检索增强生成、多模态大模型等均有深入讲解。对AI Agent智能体,从定义、原理到主流框架也都进行了深入讲解。在企业应用落地方面,本书提供了丰富的案例分析,如基于大模型的对话式推荐系统、多模态搜索、NL2SQL数据即席查询、智能客服对话机器人、多模态数字人,以及多模态具身智能等。这些案例不仅展示了大模型技术的实际应用,也为读者提供了宝贵的实践经验。
本书适合对大模型、多模态技术及AI Agent感兴趣的读者阅读,也特别适合作为高等院校本科生和研究生的教材或参考书。书中内容丰富、系统,既有理论知识的深入讲解,也有大量的实践案例和代码示例,能够帮助学生在掌握理论知识的同时,培养实际操作能力和解决问题的能力。通过阅读本书,读者将能够更好地理解大模型技术的前沿发展,并将其应用于实际工作中,推动人工智能技术的进步和创新。
【配套视频】
清华《GPT多模态大模型与AI Agent智能体》书籍配套视频【陈敬雷】
视频特色: 前沿技术深度解析,把握行业脉搏
实战驱动,掌握大模型开发全流程
智能涌现与 AGI 前瞻,抢占技术高地
上一篇:《GPT多模态大模型与AI Agent智能体》系列一》大模型技术原理 - 大模型技术的起源、思想
下一篇:DeepSeek大模型技术系列五》DeepSeek大模型基础设施全解析:支撑万亿参数模型的幕后英雄
火山引擎开发者社区是火山引擎打造的AI技术生态平台,聚焦Agent与大模型开发,提供豆包系列模型(图像/视频/视觉)、智能分析与会话工具,并配套评测集、动手实验室及行业案例库。社区通过技术沙龙、挑战赛等活动促进开发者成长,新用户可领50万Tokens权益,助力构建智能应用。
更多推荐
所有评论(0)