# unraid下部署Deepseek-R1大模型API **Repository Path**: spoto/deepseek ## Basic Information - **Project Name**: unraid下部署Deepseek-R1大模型API - **Description**: 叫我靓仔 - **Primary Language**: Unknown - **License**: Not specified - **Default Branch**: master - **Homepage**: None - **GVP Project**: No ## Statistics - **Stars**: 5 - **Forks**: 1 - **Created**: 2025-02-13 - **Last Updated**: 2025-07-25 ## Categories & Tags **Categories**: Uncategorized **Tags**: None ## README # 如何在 unRAID 上部署 Deepseek API ## 1. 背景介绍 本文将指导您如何在 unRAID 上部署 Deepseek API。我们会介绍如何在不同硬件环境(NVIDIA 显卡、AMD 显卡和纯 CPU 环境)中部署 Ollama 容器,并通过 Open WebUI 提供更便捷的使用界面。 ## 2. 环境准备 - **硬件要求**:可以使用具有 NVIDIA 显卡(如 Tesla P4)、AMD 显卡(如 RX6600)或者纯 CPU 环境的设备。 - **系统要求**:unRAID 7.0 或更高版本。 - **Docker**:需要 Docker 支持,用于容器化部署。 ## 3. 部署 Ollama 容器 ### 3.1 安装 NVIDIA 驱动(仅适用于 NVIDIA 显卡环境) 1. 在 unRAID 中,打开 **应用市场**。 2. 搜索 **Nvidia Driver**,点击安装。 3. 安装完成后,检查系统日志,确保驱动正确安装。 4. 在 **Docker 设置** 中重新启用 Docker 功能,以确保 NVIDIA 驱动被正确调用。 5. 通过 `nvidia-smi` 命令检查显卡状态,确认显卡驱动安装成功。 ### 3.2 安装 Ollama 容器 1. 在 **应用市场** 中搜索 **Ollama**。 2. 选择 **Ollama** 容器并点击 **安装**。 3. 在 **高级视图** 中,确认容器配置: - 设置存储路径(默认为 `appdata` 下)。 - 设置网络模式为 **Bridge**,默认端口映射为 11434。 - 在 **额外参数** 中,确认 `--gpus=all` 参数(不需要修改)。 4. 安装完成后,点击 **应用** 完成部署。 5. 访问容器的图形界面,确认容器已成功运行,页面显示 “Ollama is running”。 ### 3.3 选择和运行 Deepseek 模型 1. 访问 [Ollama 官网](https://ollama.com) 搜索 **Deepseek**。 2. 选择 **Deepseek-r1** 模型,注意选择合适的参数量级(如 7B、32B 或 671B)。 3. 在控制台中输入命令来运行模型: ```bash ollama run deepseek-r1:7b --verbose ``` 4. 进入对话界面,输入问题或请求(例如:生成一篇 1000 字的小故事)。 ### 3.4 纯 CPU 环境下部署 对于纯 CPU 环境,只需按以下步骤操作: 1. 在 **应用市场** 中选择 **Ollama** 容器,并开始安装。 2. 在 **高级视图** 中,删除所有 NVIDIA 驱动相关的参数(如 `--gpus=all`)。 3. 继续按照常规步骤配置并启动容器。 CPU 模式的性能较低,但适合不需要高性能运算的用户使用。 ## 4. 配置 AMD 显卡环境(A 卡) 1. 在 **应用市场** 中,安装 **Radeontop** 插件,用于监控 AMD 显卡状态。 2. 在 **Ollama** 容器配置中,修改 **容器镜像** 为 `ollama:rocm`,以支持 AMD ROCm 环境。 3. 在 **高级视图** 中,删除 NVIDIA 驱动参数,并加入 AMD 显卡相关的设备直通参数: - `--device /dev/dri/card0:/dev/dri/card0` - `--device /dev/kfd:/dev/kfd` 4. 配置完成后,点击 **应用** 部署容器。 5. 检查 **日志** 中是否正确调用了 GPU。如果看到 `amdgpu is supported`,则表示显卡已成功配置。 6. 在容器的控制台测试模型运行情况。 ## 5. 配置 Open WebUI 进行交互 Open WebUI 提供了一个图形界面,便于与 Deepseek 模型进行交互。 ### 5.1 安装 Open WebUI 容器 1. 在 **应用市场** 中搜索 **Open WebUI**,并选择安装。 2. 在安装向导中: - 修改端口映射为 3000(避免与其他容器冲突)。 - 设置 Ollama API 地址为 Ollama 容器的内网 IP 地址(例如:`http://172.17.0.2:11434`)。 3. 确认设置无误后,点击 **应用** 完成安装。 ### 5.2 启动并使用 Open WebUI 1. 访问 `http://NAS的IP:3000` 打开 Open WebUI。 2. 创建管理员账户并登录。 3. 在界面中选择需要的模型(如 **Deepseek-r1:7b**),并开始对话或生成文本。 ### 5.3 其他功能 - **多用户支持**:Open WebUI 允许创建多个用户账户,便于存储聊天记录。 - **参数调整**:您可以在 **设置** 中调整上下文长度、温度等参数,以优化模型输出。 ## 6. 注意事项 - 对于 7B 以下的模型,可能在逻辑分析等任务中表现较差。如果需要更高的计算能力,建议使用 32B 或 671B 等大模型。 - 本地部署提供更高的隐私性和稳定性,但性能和响应速度会受到硬件限制。 ## 7. 总结 通过本教程,您已经学会如何在 unRAID 上部署 Deepseek API,并通过 Open WebUI 提供直观的交互方式。这使得您的 NAS 不仅是一个存储服务器,还能作为智能 AI 助手提供强大的计算支持。如果您觉得这个教程有帮助,请点赞、收藏并分享给其他人。我们还将继续发布更多相关教程,敬请关注!