本地部署DeepSeek-R1

安装Ollama

到官网Download Ollama on Windows选择你电脑的系统进行下载Ollama应用

下载完毕之后点击双击安装,很简单一直下一步(Next)就可以了

下载模型

安装完毕之后,在官网deepseek-r1搜索deepseek-r1模型

可以选择版本,大家可以根据自己的显卡内存进行选择,当然是所需要内容越大,深度思考的算力就越大(671b是最接近联网使用的)

其实安装32b、70b就够用了,如果显存不匹配会回复的很卡顿的(我电脑是8g显存,那基本使用7b、8b就极限当然也是最合适的了)

选择好之后复制命令

image-20250215210834669

在所安装Ollama的目录文件的终端中复制执行命令

image-20250216104710506

简单的使用

在安装好之后就可以进行交流了,以后进入终端就可以也是继续输入该命令进入聊天了

ollama run deepseek-r1:8b # 像使用哪个模型就改一下

使用ollama list命令能够列出你安装过的模型

image-20250216104943217

在webUI上体验

Chrome浏览器上安装一个Page Assist的插件

可以通过终端来下载安装

准备工作:

  • Node.js: 用于运行 JavaScript 代码。
  • Bun: 用于安装项目依赖和构建项目。
  • Ollama: 用于本地 AI 模型的运行。
  • Chrome 或 Firefox 浏览器: 用于加载和测试扩展程序。

安装bun

npm install -g bun

详细安装步骤

步骤1:克隆项目仓库

需要从 GitHub 上克隆 Page Assist 项目到本地:

git clone https://github.com/n4ze3m/page-assist.git
cd page-assist

步骤2:安装项目依赖

使用 Bun 安装项目所需的依赖:

bun install

步骤3:构建扩展程序

构建扩展程序,默认情况下会为 Chrome 构建:

bun run build

如果你想为 Firefox 构建,可以使用以下命令:

bun run build:firefox

步骤 4: 加载扩展程序

对于 Chrome 浏览器:

  1. 打开 Chrome 浏览器的扩展程序管理页面:chrome://extensions/
  2. 启用开发者模式,方法是点击右上角的开关。
  3. 点击“加载已解压的扩展程序”按钮,然后选择 build/chrome-mv3 目录。

对于 Firefox 浏览器:

  1. 打开 Firefox 浏览器的附加组件管理页面:about:addons
  2. 点击“扩展”选项卡。
  3. 点击“管理您的扩展”按钮。
  4. 点击“加载临时附加组件”按钮,然后选择 build 目录中的 manifest.json 文件。

步骤 5: 使用扩展程序

安装完成后,你可以通过以下方式使用 Page Assist:

按住Ctrl+Shift+L 也是可以的

  • 侧边栏: 通过右键菜单或快捷键 Ctrl+Shift+P 打开侧边栏,与本地 AI 模型进行交互。
  • Web UI: 点击扩展程序图标,打开一个新的标签页,进入 Web UI 界面。

第一次进去要修改一些配置:改中文、RAG设置的文本嵌入模型选择你本地的模型即可

更改安装路径

由于Ollama的exe安装软件双击安装的时候默认是在C盘,以及后续的模型数据下载也在C盘,导致会占用C盘空间

所以一定要改变安装的路径

手动创建Ollama安装目录

在你想安装的路径下创建好一个新文件夹,并把Ollama的安装包放在里面。比如我的是:F:\Ollama

然后在终端进入该文件夹里面

然后在CMD窗口输入:./OllamaSetup.exe /DIR=F:\Ollama

语法:软件名称 /DIR=这里放你上面创建好的Ollama指定目录

image-20250214222532628

然后Ollama就会进入安装,点击Install后,可以看到Ollama的安装路径就变成了我们指定的目录了,这样大模型数据包也会默认下载在指定目录中

那如果已经安装到C盘了怎么来改呢?

手动创建大模型存储目录

比如我的是:F:\Ollama

增加环境变量

鼠标右键我的电脑–>属性–>高级系统设置–>环境变量

在用户变量中新建一个环境变量

OLLAMA_MODELS :F:\Ollama\models

复制转移大模型存储目录

创建完环境变量后,把Ollama停止,然后进入C盘–>用户–>你自己的电脑名称–>.ollama–>复制整个models到刚刚上面新建的存储目录下。复制完成后要删除C盘目录下的models文件夹。

img

复制到新创建的目录下

img

  重启Ollama,打开CMD输入Ollama list,查看大模型资源包是否能正常显示,显示正常则迁移完成,也可以直接和大模型进行提问,能回复说明也正常。

两步获取专属满血 DeepSeek-R1

参考教程博客https://mp.weixin.qq.com/s/dPicExymBomcksvijPNNKg

第一步:获取专属密钥

打开电脑,输入:https://console.volcengine.com/ark/region:ark+cn-beijing/model/detail?Id=deepseek-r1

直接手机号注册,当然也可以扫码注册

注册成功后(如果有弹窗,直接关掉),点击deepseek-r1模型然后进入详情页——> 点击页面底部的推理

image-20250215212110462

点击推理的目的是创建一个模型推理接入点,进入页面你会看到开通模型的提醒:

image-20250215212240041

点击立即开通( 没有实名记得实名),然后开通模型名称选择 DeepSeek-R1 模型:

image-20250215212633234

点击右下角立即开通,然后一直往下无脑确认,通过后再进入接入点创建页面继续刚才的流程,可以再输入地址:https://console.volcengine.com/ark/region:ark+cn-beijing/endpoint/create?customModelId=

image-20250215212908491

然后就完成了 👏,但是可能会卡顿

image-20250215213051830

点击体验可以尝试下字节的满血 DeepSeek-R1 模型

如果你不介意,在这个页面就可以享受专属的满血 DeepSeek-R1 模型了。如果你还想折腾,看看怎么获取 API,以及如何选择更多好看且好用的大模型聊天客户端,就让我们继续获取密钥吧

让我们点击 API 调用,进入 API 调用页面:

image-20250215213653230

在这个页面,我们只需做两件事情:

  • 第一步:点击复制模型 ID,自己保存一下,后面要用
  • 第二步:点击选择 API Key 并复制,点击后跟着弹窗流程即可创建成功,交互非常简单,复制后同样保存一下

此时你手头上就有模型 ID 和 API Key了,大概格式如下(一定要保存好了):

  • ep-20250214004733-xxxx
  • acc311dd-xxx-xxx-xxxxxx

这两个值就是我们这个步骤的最终目的,也是我们的屠龙宝刀。

第二步:配置 AI 聊天客户端

本文选择 AI 聊天客户端主要考虑开箱即用&颜值&功能性三点:

如果你有自己想用的 AI 聊天客户端,直接配置即可,使用方式大同小异

image-20250215215630609

点击 使用自己的API Key 或本地模型,然后滑动到底部选择 添加自定义提供方:

API 地址:https://ark.cn-beijing.volces.com/api/v3 -API Key 和 Model 就是前面复制的两个值

image-20250215220549691

保存后,即可开始会话:

满血 DeepSeek R1 免费薅

DeepSeek R1 满血版羊毛

字节、阿里云、派欧算力的速度不错。