DeepSeek部署
本地部署DeepSeek-R1
安装Ollama
到官网Download Ollama on Windows选择你电脑的系统进行下载Ollama应用
下载完毕之后点击双击安装,很简单一直下一步(Next)就可以了
下载模型
安装完毕之后,在官网deepseek-r1搜索deepseek-r1
模型
可以选择版本,大家可以根据自己的显卡内存进行选择,当然是所需要内容越大,深度思考的算力就越大(671b是最接近联网使用的)
其实安装32b、70b就够用了,如果显存不匹配会回复的很卡顿的(我电脑是8g显存,那基本使用7b、8b就极限当然也是最合适的了)
选择好之后复制命令
在所安装Ollama的目录文件的终端中复制执行命令
简单的使用
在安装好之后就可以进行交流了,以后进入终端就可以也是继续输入该命令进入聊天了
ollama run deepseek-r1:8b # 像使用哪个模型就改一下
使用ollama list
命令能够列出你安装过的模型
在webUI上体验
在Chrome
浏览器上安装一个Page Assist
的插件
可以通过终端来下载安装
准备工作:
- Node.js: 用于运行 JavaScript 代码。
- Bun: 用于安装项目依赖和构建项目。
- Ollama: 用于本地 AI 模型的运行。
- Chrome 或 Firefox 浏览器: 用于加载和测试扩展程序。
安装bun
npm install -g bun
详细安装步骤
步骤1:克隆项目仓库
需要从 GitHub 上克隆 Page Assist 项目到本地:
git clone https://github.com/n4ze3m/page-assist.git
cd page-assist
步骤2:安装项目依赖
使用 Bun 安装项目所需的依赖:
bun install
步骤3:构建扩展程序
构建扩展程序,默认情况下会为 Chrome 构建:
bun run build
如果你想为 Firefox 构建,可以使用以下命令:
bun run build:firefox
步骤 4: 加载扩展程序
对于 Chrome 浏览器:
- 打开 Chrome 浏览器的扩展程序管理页面:
chrome://extensions/
。 - 启用开发者模式,方法是点击右上角的开关。
- 点击“加载已解压的扩展程序”按钮,然后选择
build/chrome-mv3
目录。
对于 Firefox 浏览器:
- 打开 Firefox 浏览器的附加组件管理页面:
about:addons
。 - 点击“扩展”选项卡。
- 点击“管理您的扩展”按钮。
- 点击“加载临时附加组件”按钮,然后选择
build
目录中的manifest.json
文件。
步骤 5: 使用扩展程序
安装完成后,你可以通过以下方式使用 Page Assist:
按住Ctrl+Shift+L
也是可以的
- 侧边栏: 通过右键菜单或快捷键
Ctrl+Shift+P
打开侧边栏,与本地 AI 模型进行交互。 - Web UI: 点击扩展程序图标,打开一个新的标签页,进入 Web UI 界面。
第一次进去要修改一些配置:改中文、RAG设置的文本嵌入模型选择你本地的模型即可
更改安装路径
由于Ollama的exe安装软件双击安装的时候默认是在C盘,以及后续的模型数据下载也在C盘,导致会占用C盘空间
所以一定要改变安装的路径
手动创建Ollama安装目录
在你想安装的路径下创建好一个新文件夹,并把Ollama的安装包放在里面。比如我的是:F:\Ollama
然后在终端进入该文件夹里面
然后在CMD窗口输入:./OllamaSetup.exe /DIR=F:\Ollama
语法:软件名称 /DIR=这里放你上面创建好的Ollama指定目录
然后Ollama就会进入安装,点击Install后,可以看到Ollama的安装路径就变成了我们指定的目录了,这样大模型数据包也会默认下载在指定目录中
那如果已经安装到C盘了怎么来改呢?
手动创建大模型存储目录
比如我的是:F:\Ollama
增加环境变量
鼠标右键我的电脑–>属性–>高级系统设置–>环境变量
在用户变量中新建一个环境变量
OLLAMA_MODELS :F:\Ollama\models
复制转移大模型存储目录
创建完环境变量后,把Ollama停止,然后进入C盘–>用户–>你自己的电脑名称–>.ollama–>复制整个models到刚刚上面新建的存储目录下。复制完成后要删除C盘目录下的models文件夹。
复制到新创建的目录下
重启Ollama,打开CMD输入Ollama list,查看大模型资源包是否能正常显示,显示正常则迁移完成,也可以直接和大模型进行提问,能回复说明也正常。
两步获取专属满血 DeepSeek-R1
参考教程博客https://mp.weixin.qq.com/s/dPicExymBomcksvijPNNKg
第一步:获取专属密钥
打开电脑,输入:https://console.volcengine.com/ark/region:ark+cn-beijing/model/detail?Id=deepseek-r1
直接手机号注册,当然也可以扫码注册
注册成功后(如果有弹窗,直接关掉),点击deepseek-r1模型然后进入详情页——> 点击页面底部的推理
点击推理的目的是创建一个模型推理接入点,进入页面你会看到开通模型的提醒:
点击立即开通( 没有实名记得实名),然后开通模型名称选择 DeepSeek-R1
模型:
点击右下角立即开通,然后一直往下无脑确认,通过后再进入接入点创建页面继续刚才的流程,可以再输入地址:https://console.volcengine.com/ark/region:ark+cn-beijing/endpoint/create?customModelId=
然后就完成了 👏,但是可能会卡顿
点击体验可以尝试下字节的满血 DeepSeek-R1
模型
如果你不介意,在这个页面就可以享受专属的满血 DeepSeek-R1
模型了。如果你还想折腾,看看怎么获取 API
,以及如何选择更多好看且好用的大模型聊天客户端,就让我们继续获取密钥吧
让我们点击 API 调用,进入 API
调用页面:
在这个页面,我们只需做两件事情:
- 第一步:点击复制模型 ID,自己保存一下,后面要用
- 第二步:点击选择 API Key 并复制,点击后跟着弹窗流程即可创建成功,交互非常简单,复制后同样保存一下
此时你手头上就有模型 ID 和 API Key
了,大概格式如下(一定要保存好了):
- ep-20250214004733-xxxx
- acc311dd-xxx-xxx-xxxxxx
这两个值就是我们这个步骤的最终目的,也是我们的屠龙宝刀。
第二步:配置 AI 聊天客户端
本文选择 AI 聊天客户端主要考虑开箱即用&颜值&功能性三点:
- 浏览器打开 https://chatboxai.app/zh[8]
- 选择你的系统,下载对应客户端
如果你有自己想用的 AI
聊天客户端,直接配置即可,使用方式大同小异
点击 使用自己的API Key 或本地模型
,然后滑动到底部选择 添加自定义提供方
:
API 地址:https://ark.cn-beijing.volces.com/api/v3
-API Key 和 Model 就是前面复制的两个值
保存后,即可开始会话:
满血 DeepSeek R1
免费薅
DeepSeek R1
满血版羊毛
- 阿里云百炼 http://bailian.console.aliyun.com (赠送 100 万 token)
- 字节火山引擎 http://volcengine.com(赠送 50 万 token) 首推
- 派欧算力:https://ppinfra.com/user/register?invited_by=WOFLLG
- 腾讯云 http://cloud.tencent.com/act/pro/deepseek-api(赠送 50 万 token)
- 硅基流动 http://siliconflow.cn(赠送额度的不能用于满血 R1 了…..)
- DeepSeek 官方 http://platform.deepseek.com(赠送 10 元额度)
字节、阿里云、派欧算力的速度不错。