电脑配置:

处理器:AMD 7950X

内存:32G

硬盘:致态tiplus7100 2t

显卡:4070 super 12G

部署方法:

1. 到ollama官网下载安装ollama

https://ollama.com/https://ollama.com/https://ollama.com/https://ollama.com/https://ollama.com/https://ollama.com/

2. deepseek r1的模型:deepseek-r1https://ollama.com/library/deepseek-r1https://ollama.com/library/deepseek-r1https://ollama.com/library/deepseek-r1https://ollama.com/library/deepseek-r1https://ollama.com/library/deepseek-r1https://ollama.com/library/deepseek-r1https://ollama.com/library/deepseek-r1打开CMD或者powershell,执行如下命令,我的是4070s显卡,选择了14b,可以根据自己显卡的算力选择不同的参数量,在上面的页面中有支持的可选项

ollama run deepseek-r1:14b

等待下载完成就可以问答了,如下图:

4070s使用14b可以流畅回答,显卡占用率可以接近100%。

也试了32b,有点慢,得思考个十几二十秒,之后大概每秒输出三四个字,显卡占用率一直不到30%,可以看到显存占满了,共享内存还多占了10G。

所以4070s这样12G显存的显卡还是使用14b的参数量最合适,32b是4070s这个级别的显卡能差不多能使用的极限了。

Logo

火山引擎开发者社区是火山引擎打造的AI技术生态平台,聚焦Agent与大模型开发,提供豆包系列模型(图像/视频/视觉)、智能分析与会话工具,并配套评测集、动手实验室及行业案例库。社区通过技术沙龙、挑战赛等活动促进开发者成长,新用户可领50万Tokens权益,助力构建智能应用。

更多推荐