下载地址

温馨提示

点击下载按钮右侧下拉箭头,可以选择软件资源下载!用夸克移动端保存该资源,可以免费获取1TB存储空间!

文本内容

引言

近期,DeepSeek的热度居高不下,作为普通用户,该如何上手使用呢?当然,你可以直接使用官网Web端,或者是移动app端。但是,想追求更高的自由度、更丰富的使用体验,还是推荐本地部署。有人说那个是蒸馏模型,鼠标拙见,个人使用该模型,也完全能满足你的需求。今天,鼠标带来了一键离线全模型部署教程,部署全程,无需特别网络环境!

本地部署DeepSeek R1

本地想运行使用DeepSeek模型,需要部署相应的运行环境,Ollama是个不错的选择,不光免费开源,且是真正意义上的一键部署。

1. 下载并安装Ollama

鼠标博客或官网下载Ollama,下载好后直接双击运行。点击install开始安装,接着就耐心等待安装。完成后,没有任何界面窗口,任务栏可以看见ollama图标。你也可以打开终端,输入ollama命令,来验证是否安装成功。

2. 下载&导入模型

  • 如果你的网络环境允许,此时,我们就可以直接使用Ollama来下载模型,具体的命令和用法,可以访问鼠标博客查看。这不是本期视频要讲的重点,鼠标要讲的是离线导入全部模型。
  • 鼠标博客下载一键导入模型包,因为包含了全部模型,所以体积有些大,耐心等待。
  • 下载好后解压到文件夹,完成后进入解压的文件夹主目录,右键管理员运行一键导入全模型。
  • 输入模型位置,建议选择一个空间较大的位置,格式为这样,文件夹可以不存在,脚本会自动创建,输入好后回车确认。
  • 选择要导入的模型序号,用空间分隔序号,输入好序号后回车确认。不同模型,对电脑硬件的需求也不同,具体也通过鼠标博客查看,选择与硬件匹配的模型。
  • 接下来,脚本会自动导入模型,因模型较大,导入时间可能有些略长。
  • 全部导入完成,按任意键退出脚本。

模型下载命令

官方版下载命令:

#下载deepseek-r1:1.5b模型命令
ollama pull deepseek-r1:1.5b

#下载deepseek-r1:7b模型命令
ollama pull deepseek-r1:7b

#下载deepseek-r1:8b模型命令
ollama pull deepseek-r1:8b

#下载deepseek-r1:14b模型命令
ollama pull deepseek-r1:14b

#下载deepseek-r1:32b模型命令
ollama pull deepseek-r1:32b

#下载deepseek-r1:70b模型命令
ollama pull deepseek-r1:70b

和谐版下载命令:

#下载deepseek-r1:7b模型命令
ollama pull huihui_ai/deepseek-r1-abliterated:7b

#下载deepseek-r1:8b模型命令
ollama pull huihui_ai/deepseek-r1-abliterated:8b

#下载deepseek-r1:14b模型命令
ollama pull huihui_ai/deepseek-r1-abliterated:14b

#下载deepseek-r1:32b模型命令
ollama pull huihui_ai/deepseek-r1-abliterated:32b

#下载deepseek-r1:70b模型命令
ollama pull huihui_ai/deepseek-r1-abliterated:70b

参数模型硬件要求

以下是不同参数量模型的本地部署硬件要求和适用场景分析。注:部分数据基于模型通用需求推测,具体以实际部署测试为准。

✅ DeepSeek-R1-1.5B

  • CPU: 最低 4 核(推荐 Intel/AMD 多核处理器)
  • 内存: 8GB+
  • 硬盘: 3GB+ 存储空间(模型文件约 1.5-2GB)
  • 显卡: 非必需(纯 CPU 推理),若 GPU 加速可选 4GB+ 显存(如 GTX 1650)
  • 场景:低资源设备部署,如树莓派、旧款笔记本、嵌入式系统或物联网设备

✅ DeepSeek-R1-7B

  • CPU: 8 核以上(推荐现代多核 CPU)
  • 内存: 16GB+
  • 硬盘: 8GB+(模型文件约 4-5GB)
  • 显卡: 推荐 8GB+ 显存(如 RTX 3070/4060)
  • 场景:中小型企业本地开发测试、中等复杂度 NLP 任务,例如文本摘要、翻译、轻量级多轮对话系统

✅ DeepSeek-R1-8B

  • CPU: 8 核以上(推荐现代多核 CPU)
  • 内存: 16GB+
  • 硬盘: 8GB+(模型文件约 4-5GB)
  • 显卡: 推荐 8GB+ 显存(如 RTX 3070/4060)
  • 场景:需更高精度的轻量级任务(如代码生成、逻辑推理)

✅ DeepSeek-R1-14B

  • CPU: 12 核以上
  • 内存: 32GB+
  • 硬盘: 15GB+
  • 显卡: 16GB+ 显存(如 RTX 4090 或 A5000)
  • 场景:企业级复杂任务、长文本理解与生成

✅ DeepSeek-R1-32B

  • CPU: 16 核以上(如 AMD Ryzen 9 或 Intel i9)
  • 内存: 64GB+
  • 硬盘: 30GB+
  • 显卡: 24GB+ 显存(如 A100 40GB 或双卡 RTX 3090)
  • 场景:高精度专业领域任务、多模态任务预处理

✅ DeepSeek-R1-70B

  • CPU: 32 核以上(服务器级 CPU)
  • 内存: 128GB+
  • 硬盘: 70GB+
  • 显卡: 多卡并行(如 2x A100 80GB 或 4x RTX 4090)
  • 场景:科研机构/大型企业、高复杂度生成任务

✅ DeepSeek-R1-671B

  • CPU: 64 核以上(服务器集群)
  • 内存: 512GB+
  • 硬盘: 300GB+
  • 显卡: 多节点分布式训练(如 8x A100/H100)
  • 场景:超大规模 AI 研究、通用人工智能(AGI)探索

使用DeepSeek

通过以上步骤,我们就在本地成功部署了DeepSeek,并导入了相应的推理模型。使用方法,鼠标推荐以下几种,当然,你有更优的方法,欢迎留言。

1. 控制台使用

  • 打开控制台,输入如下命令运行DeepSeek模型,后面就是你模型的名称。
ollama run deepseek-r1:7b
  • 如视频中提示,我们就可以直接输入问题提问了。

2. 客户端使用

  • 鉴于部分同学,还是不习惯控制台使用,鼠标推荐这款免费开源AnythingLLM,它具体是什么,有兴趣的可以百度下,这里咱们使用它可以实现客户端提问。
  • 鼠标博客或官网下载AnythingLLM,并将其安装在电脑,过程很简单,这里不赘述。过程中,可能会下载LLM模型,咱们用不上,介意的可以断网安装。
  • 软件安装好后,主界面点击这里,一直跳过到这里,工作区随便明明。
  • 进入软件主界面,点击工作区后的设置-聊天设置,工作区提供者下拉选择ollama,聊天模型选择我们导入的DeepSeek模型,最后点击底部这里保存。这里操作的前提,保证ollama已经运行。
  • 回到工作区,我们就可以对DeepSeek提问了。

3. Web端使用

  • 有的同学会说,客户端安装有点麻烦,可否直接使用Web端?当然可以,鼠标博客或者浏览器插件商店下载并安装Page Assist。
  • 启用Page Assist,并让其固定在浏览器工具栏。
  • 工具栏点击Page Assist进入Web端主页,通过设置-一般设置,把语音识别语言和语言改成简体中文。
  • RAG设置,文本嵌入模型,选择我们导入的DeepSeek模型,最后点击保存。这里操作的前提,也是需要保证ollama已经运行。
  • 回到聊天界面,上方下拉选择DeepSeek模型,此时我们就可以对他进行提问操作了。

关于和谐模型

官方DeepSeek模型,设置一些敏感筛查机制,这就导致一些敏感问题,它不会回答你。所以,鼠标准备了一组和谐版的DeepSeek模型,给有需要的同学使用,导入方法和官方一样,防止视频被和谐,这里就不多做说明了。有兴趣的同学,可以在鼠标博客下载体验。

结束语

以上,鼠标演示了如何一键离线部署DeepSeek R1。不夸张的说,即使电脑小白,也能无脑部署,可谓有手就行。当然,你有更简便的方法,可以评论区留言哟!本期视频就到这里,谢谢观看!