由于春节期间DeepSeek的爆火出圈,其官网和相关API服务频繁中断服务,你可以考虑在本地使用Ollama框架部署DeepSeek的开源模型,以确保稳定的访问。以下是详细的部署教程,包括硬件要求:
一、硬件要求
根据模型的规模和复杂度,硬件要求如下:
模型规模 | 显存需求 | 适用硬件配置 |
---|---|---|
1.5B | 4GB | 低端GPU(如NVIDIA GTX 1650) |
3B | 8GB | 中端GPU(如NVIDIA RTX 2080) |
7B | 16GB | 高端GPU(如NVIDIA RTX 3090) |
13B | 32GB | 多卡配置(如2x NVIDIA A100) |
671B | 80GB以上 | 多节点分布式训练(如8x NVIDIA A100) |
请根据您的硬件配置选择适合的模型规模。
二、软件要求
- 操作系统:支持Linux、macOS或Windows。
- Ollama:用于本地运行DeepSeek模型的框架。
- Docker(可选):用于容器化部署,方便管理和运行模型。
三、安装Ollama
- 下载Ollama:访问Ollama官网,下载适合您操作系统的安装包。
- 安装Ollama:运行下载的安装包,按照提示完成安装。
- 验证安装:打开终端或命令提示符,输入以下命令以验证安装是否成功:
ollama --version
如果显示版本号,则表示安装成功。
四、下载DeepSeek模型
- 拉取模型:在终端中执行以下命令,下载DeepSeek模型(以7B版本为例):
ollama pull deepseek-r1:7b
根据您的硬件配置,选择适合的模型版本。
五、运行模型
- 启动模型:在终端中执行以下命令,启动DeepSeek模型:
ollama run deepseek-r1:7b
启动后,您可以在终端中与模型进行交互。
六、可视化界面(可选)
为了更方便地与模型交互,您可以使用Open Web UI:
- 安装Docker:如果尚未安装Docker,请先安装Docker。
- 拉取并运行Open Web UI:在终端中执行以下命令:
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
- 访问界面:在浏览器中访问
http://localhost:3000
,即可使用可视化界面与模型交互。
- 访问界面:在浏览器中访问
七、性能优化与注意事项
- 内存管理:确保系统有足够的内存和存储空间,以避免运行时出现资源不足的问题。
- GPU加速:如果使用GPU,确保NVIDIA驱动已正确安装,并使用支持CUDA的显卡。
- 模型选择:根据硬件配置选择适合的模型版本,避免因硬件不足导致运行失败。
通过以上步骤,您可以在本地成功部署DeepSeek模型,确保在春节期间稳定使用。更多部署细节可以添加下方微信获取最新方案。

文章中提到的工具包在社群里都能搜索到。