今年春节给人最大的惊喜不是春晚而是Deepseek智能AI模型的开源,以及对漂亮国的打击!
那么DP官方服务器经常被攻击导致无法运行,那么作为一个经常需要文字工作的牛马就很迫切需要一个本地化的deepseek,其实并不像官方所说的那样需要配置高端性能的电脑和显卡才能工作,今天一上班就从可行性上分析并测试,顺利安装成功并调试完成,输出作品的速度还能够忍受,1000字的文稿形成速度大约需要2分钟。

下面为大家简要说一下整个部署过程:
1、首先需要准备两个小软件,如果想要在本地运行 DeepSeek 需要用到 Ollama和Chatbox 这俩工具,大家可以到官网搜索下载
为了提高下载速度大家可以从网盘下载,我已经上传好了https://www.123865.com/s/ZmGAjv-iIe7H
2、安装完成Ollama后,在CMD命令提示符窗口中输入ollama help并按回车键,这个操作是为了验证这个软件是否安装成功,如果没有报错的话则表示这个软件安装成功。
3、修改一下此软件的系统环境变量,以便于下一步下载大模型数据
在系统高级设置中,新建环境变量,OLLAMA_MODELS,把变量值设置为你自己的路径,这里暂定为E:\Ollama\models
4、打开https://ollama.com/,在网页上方搜索框中输入 Deepseek-r1,点击 Deepseek-r1 后会进入详情界面,里面有多个参数规模可供选择,从 1.5b 到 671b 都有。
需注意的是,这里我们需要根据自己电脑的硬件配置来选择模型大小,上面是一个模型大小配置参考表格,大家可根据自己的电脑配置来自行选择,当然了,部署的本地模型越大,使用的深度求索效果就越好。选择好模型规模后,复制右边的一个命令。命令复制完成后回到命令提示符窗口,将刚刚复制的命令粘贴到命令提示符窗口中并按回车键即可下载模型。
我电脑16G内存,选用了8b模型:ollama run deepseek-r1:8b
5、下载完成后, 就可以直接在命令行界面进行聊天对话
6、如果对这个界面并不满意,那么我们可以进行下一步的工作,安装chatbox,按提示选择本地模型,选择ollama-api,其他选择默认,保存,退出chatbox并重新启动,大功告成,可以使用了!
那么DP官方服务器经常被攻击导致无法运行,那么作为一个经常需要文字工作的牛马就很迫切需要一个本地化的deepseek,其实并不像官方所说的那样需要配置高端性能的电脑和显卡才能工作,今天一上班就从可行性上分析并测试,顺利安装成功并调试完成,输出作品的速度还能够忍受,1000字的文稿形成速度大约需要2分钟。

下面为大家简要说一下整个部署过程:
1、首先需要准备两个小软件,如果想要在本地运行 DeepSeek 需要用到 Ollama和Chatbox 这俩工具,大家可以到官网搜索下载
为了提高下载速度大家可以从网盘下载,我已经上传好了https://www.123865.com/s/ZmGAjv-iIe7H
2、安装完成Ollama后,在CMD命令提示符窗口中输入ollama help并按回车键,这个操作是为了验证这个软件是否安装成功,如果没有报错的话则表示这个软件安装成功。
3、修改一下此软件的系统环境变量,以便于下一步下载大模型数据
在系统高级设置中,新建环境变量,OLLAMA_MODELS,把变量值设置为你自己的路径,这里暂定为E:\Ollama\models
4、打开https://ollama.com/,在网页上方搜索框中输入 Deepseek-r1,点击 Deepseek-r1 后会进入详情界面,里面有多个参数规模可供选择,从 1.5b 到 671b 都有。
需注意的是,这里我们需要根据自己电脑的硬件配置来选择模型大小,上面是一个模型大小配置参考表格,大家可根据自己的电脑配置来自行选择,当然了,部署的本地模型越大,使用的深度求索效果就越好。选择好模型规模后,复制右边的一个命令。命令复制完成后回到命令提示符窗口,将刚刚复制的命令粘贴到命令提示符窗口中并按回车键即可下载模型。
我电脑16G内存,选用了8b模型:ollama run deepseek-r1:8b
5、下载完成后, 就可以直接在命令行界面进行聊天对话
6、如果对这个界面并不满意,那么我们可以进行下一步的工作,安装chatbox,按提示选择本地模型,选择ollama-api,其他选择默认,保存,退出chatbox并重新启动,大功告成,可以使用了!
文章来源:
网络小编D
版权声明:
本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,请联系本站立刻删除。
