最近,国产AI神器DeepSeek爆火,其深度思考能力完美的体现了DeepSeek先进的算力和优越的性能。可以这么说,DeepSeek的问世,推动了AI大模型的跨越式发展。
作为一款AI领域的现象级产品,DeepSeek的用户量在短时间内暴增,服务器也被大量攻击,不少小伙伴在使用DeepSeek时,经常会出现服务器繁忙的提示。
那如果我们能够将DeepSeek部署到本地,在我们自己电脑上部署运行DeepSeek,那是不是就方便多了呢?说干就干,接下来,我们就通过单个步骤在本地安装部署DeepSeek。
一、下载安装Ollama
在本地部署DeepSeek会使用到Ollama,所以,需要现在本地下载安装Ollama。
Ollama官方地址:https://ollama.com
小伙伴们可以根据自己的需要下载MacOS、Linux和Windows版本的Ollama,由于冰河目前使用的是Windows系统,所以,这里我下载的是Windows版本的Ollama。
下载后在本地安装Ollama。
二、下载DeepSeek-R1
(1)定位Models
进入Ollama官网,找到Models。
(2)找到DeepSeek-R1模型
(3)选择对应的模型下载
DeepSeek-R1有很多不同的版本可供下载,例如1.5b、7b、8b、14b、32b、70b或671b,版本越高,模型越大,对于电脑的内存、显卡等资源的配置要求就越高。
这里为了方便安装演示,我先给大家演示如何部署8b的模型。后续带着大家在服务上部署更高版本的模型。
进入DeepSeek-R1模型的详情,选择8b模型,如下所示。
(4)打开电脑终端
以管理员身份打开电脑终端,如下所示。
(5)部署8b模型
首先,如下图所示复制8b模型的代码。
随后,将其粘贴到命令行终端,如下所示。
如果出现下图所示的进度,则说明正在下载模型。
等待一段时间,如果出现success字样,则说明部署成功,如下所示。
部署成功后,我们可以试着在命令行发送一条消息给DeepSeek,这里我发送一个“你好”给DeepSeek。
可以看到,向DeepSeek发送你好后,它也回复了一段内容。
至此,我们就可以和DeepSeek在命令行进行对话了。不过,只是在命令行与DeepSeek对话,那就显得有点不怎么方便了,所以,我们继续部署Chatbox。
三、安装Chatbox
通过部署Chatbox,我们可以使用在网页或者客户端与DeepSeek进行交互。Chatbox的安装步骤如下所示。
(1)下载安装Chatbox
Chatbox官网:https://chatboxai.app/zh
直接进入官网下载客户端,如下所示。
下载完成后,双击进行安装即可。
(2)配置DeepSeek-R1模型
打开Chatbox,选择设置—>Ollama API,如下所示。
选择已经安装好的DeepSeek-R1 8b模型,进行保存。
等待部署完成,就可以在Chatbox页面中与DeepSeek进行对话了。
怎么部署起来是不是很简单呢?