首页
设计创意
设计软件
设计插件
PC工具
PC端软件
影/音/游
安卓应用
安卓工具
系统资源
激活工具
Windows
Win工具
AI好帮手
AI训练模型
实验室
友情链接
教程分享
随身笔记
精美壁纸
文章归档
首页
设计创意
设计软件
设计插件
PC工具
PC端软件
影/音/游
安卓应用
安卓工具
系统资源
激活工具
Windows
Win工具
AI好帮手
AI训练模型
实验室
友情链接
教程分享
随身笔记
精美壁纸
文章归档
首页
设计创意
设计软件
设计插件
PC工具
PC端软件
影/音/游
安卓应用
安卓工具
系统资源
激活工具
Windows
Win工具
AI好帮手
AI训练模型
实验室
友情链接
教程分享
随身笔记
精美壁纸
文章归档
飞牛NAS免费本地部署DeepSeek
2025年2月12日
AI训练模型
,
资源汇总
映凡
前言:
过去这一个月
大家都被DeepSeek刷屏了!
从12月DeepSeek横空出世,宣布开源到现在相信大家都已经通过各种渠道感受到他的火爆!
面对源源不断的DeepSeek服务器繁忙,稍后再试与API涨价300%的新闻
也是特别整理了一个快捷的本地免费部署DeepSeek喂饭级教程~相比市面上已有教程
本攻略全程仅有一句代码
只需五个步骤
即使是毫无代码经验的朋友
也可以在飞牛NAS使用本地模型!
主打一个小白也能玩!
教程开始
第一步,通过飞牛docker安装Ollama
通过内网IP进入飞牛web页面选择docker-镜像仓库-搜索ollama-点击下载(若下载失败,可以尝试更换docker仓库:
https://docker.1ms.run/
)
第二步,配置与运行Ollama 镜像
进入容器-Ollama-右侧三个点-容器设置端口设置-输入外部访问的端口11435 容器内部端口11434(默认)
储存位置-点击文件夹图标-添加新建的ollama文件夹路径填写
/root/.ollama
进入环境变量-添加变量
OLLAMA_ORIGINS = *
第三步,拉取deepseek本地模型
启动容器
点击如图按钮-进入终端
选择链接/bin/bash
根据你的飞牛NAS配置,选择合适的模型版本对应的运行代码
输入
ollama run deepseek-r1:[版本号]
回车
接着等待下载即可(这里具体时间看大家网速啦)
最后出现success,表示下载运行 deepseek-r1 成功!
第四步,安装LobeChat应用
进入飞牛应用中心-实用效率-找到LobeChat点击安装
直接下一步,完成后进入LobeChat页面啦!
第五步,在LobeChat上配置Ollama
选择应用设置
选择语言模型-开启Ollama开关
在服务地址输入
http://[你的局域网ip地址]:11435
获取并选择模型,deepseek-ri点击检查,展示 检查通过 即为连接成功
返回LobeChat对话页面,选择已经配置好的模型,就可以开始对话啦!
接下来,直接跟你的本地飞牛NAS上的DeepSeek对话啦!当然这里的对话速度跟NAS的配置有一定关系不过亲测,十年前的笔记本组的NAS也可以流畅运行1.5b模型~
文章标题:飞牛NAS免费本地部署DeepSeek
博客作者:映凡
文章地址:https://yc.1457vip.com/4567.html
友情链接:
https://yc.1457vip.com/links
资源来源网络,感谢原创作者的整理和开发,资源实属来之不易,请大家私下交流使用,切勿商业传播。
DeepSeek
DeepSeek模型
Docker
LobeChat应用
NAS配置
Ollama
PS
下载
免费
安装
开源
攻略
本地部署教程
模型配置
语言模型
部署
飞牛NAS
上一篇
DeepSeek满血复活,比GPT还爽!
下一篇
太好了,是王者荣耀自动化,我们有救了!
搜站内
搜全网
映凡
资源收集的互联网平台
本月创作热力图
少
多
作者好文
作者发言
00
:
00
:
00
2026
年
5
月
2
日
星期六
距离活动开始
--
天
:
--
时
:
--
分
:
--
秒
舔狗日记
昨天你领完红包就把我删了,我陷入久久地沉思。我想这其中一定有什么含义,原来你是在欲擒故纵,嫌我不够爱你。无理取闹的你变得更加可爱了,我会坚守我对你的爱的。你放心好啦!今天发工资了,发了1850,给你微信转了520,支付宝1314,还剩下16。给你发了很多消息你没回。剩下16块我在小卖部买了你爱吃的老坛酸菜牛肉面,给你寄过去了。希望你保护好食欲,我去上班了爱你~~