NAS设备的AI进化:从存储节点到本地计算中枢的实现路径
文章目录
前言
在边缘计算与本地化AI趋势日益显著的当下,NAS设备正突破传统存储边界,演变为智能计算节点。通过将fnOS飞牛云NAS改造为本地AI中枢,开发者可突破云端服务的延迟限制,实现DeepSeek-R1模型的实时推理。这种改造方案特别适合具备硬件调试经验的用户群体,其核心优势在于:既可基于现有设备的算力资源进行轻量化部署,也能通过模块化配置扩展至企业级应用。得益于NAS设备7x24小时不间断运行的特性,该方案在持续性AI训练(如自定义语言模型迭代)、自动化数据处理流水线等场景中展现出独特价值。下文将系统解析如何将存储设备转化为具备智能计算能力的边缘节点,涵盖环境配置、模型集成到远程交互的完整技术路径。

1. 环境准备
fnOS、Ollama、DeepSeek-R1模型、Page Assist浏览器插件:本地AI模型的 Web UI
fnOS基于最新 Linux 内核(Debian 发行版)深度开发,兼容主流 x86 硬件,灵活扩展外部存储。
如果您想要在x86架构的物理机中安装,可以访问飞牛私有云 fnOS官网下载镜像文件然后使用U盘写入镜像后,进入bios设置U盘启动后像装Windows系统一样安装即可。
本例中使用VMware Workstation安装的fnOS虚拟机,系统版本为V0.8.37。如果不知道如何在虚拟机中安装,可以参考这篇文章:VMware中安装飞牛云(fnOS) NAS系统
其他软件在安装好fnOS后,使用Docker与命令行进行安装。
【视频教程】
fnOS飞牛云NAS本地部署Deepseek R1大模型与远程在线使用流程
2. 部署Ollama
首先启动fnOS,可以看到飞牛云nas的Web UI界面的地址:

在浏览器中访问即可(账号密码在安装fnos时设置):

为了能正常使用Deepseek-R1模型,我们首先需要部署本地大模型运行工具:Ollama
打开Docker,选择镜像仓库,在搜索框中输入ollama,第一个1K+星星的就是,点击下载按钮:

选择默认的latest镜像标签,确定:

然后在本地镜像中能看到正在下载ollama镜像:

如果不能正常下载,或者下载失败,那么大家可以点击镜像仓库→右上角仓库设置→点击添加→名字随便填,地址填入地址:https://docker.1ms.run 填写完成之后选择新添加的仓库,点击启用。


Ollama镜像下载完毕后,点击运行按钮,开始创建ollama容器:

浙公网安备 33010602011771号