Deepseek本地部署,培养自己的独有的AI伴侣!

目前我们所知道的AI大部分都是在网页或者APP上直接使用,缺少其独特性,deepseek支持将AI部署在我们的本地电脑,只要你得性能够,就可以创造一个独属于你自己的AI伴侣。 废话不多说直接上操作! 一、配置要求1.

目前我们所知道的AI大部分都是在网页或者APP上直接使用,缺少其独特性,deepseek支持将AI部署在我们的本地电脑,只要你得性能够,就可以创造一个独属于你自己的AI伴侣。

废话不多说直接上操作!

一、配置要求

1. GPU 要求

DeepSeek 模型大多数是基于 Transformer 结构的,需要强大的 GPU 进行推理和训练。具体需求如下:

图片图片

2. CPU 要求

如果仅做推理,CPU 需求相对较低,但建议:

  • 最低要求:8 核 / 16 线程(如 AMD Ryzen 7 5800X、Intel i7-12700)
  • 推荐:16 核 / 32 线程(如 AMD Ryzen 7950X、Intel i9-13900K)
  • 超大模型(如 671B)可能需要服务器级 CPU(如 AMD EPYC、Intel Xeon)。

如果完全用 CPU 运行(无 GPU),推理速度会极慢,甚至无法运行大模型。

3.操作系统

ubuntu、window、macOS皆可

二、配置方式

基本配置方法其实非常简单,我们今天先尝试将命令行版本的配置出来,下一章我们继续配置可视化界面。

部署我们可以使用很多工具,像Ollama、LM Studio、Docker等都可以,今天我们用Ollama来进行配置,简单快捷,并且支持多系统Windows、Linux 和 Mac 系统,同时提供命令行和 Docker 部署方式。

1、安装ollama

首先我们来安装ollama,官方地址是:https://ollama.com/。

图片图片

我们直接点击download。

图片

我们可以看到可以选择多个系统的下载方式,这里我们就选择window,如果有其他需求的小伙伴可以自主选择。

图片

之后我们就执行这个下载好的exe文件即可。

图片图片

点击install,会默认下载到c盘,我尝试过也无法修改地址~~

安装好后就会自动弹出一个powershell界面。

这个时候需要输入指令来安装这里我使用的是。

ollama run deepseek-r1:1.5b,因为电脑有点拉垮,所以没有选择更高版本,有条件的可以选择,指令就在下面的地址当中。

地址:https://ollama.com/search

图片图片

选择第一个就可以看到如下内容,数字越大代表要求就越高。

图片图片

当然还有个更高的671b,有条件可以搞,哈哈~~

图片图片

复制上面的指令,粘贴到ollama打开的powershell窗口中,执行下载即可。

图片图片

下载需要时间,也可以自行给他提提速。

下载完成就可以看到如下输入窗口。

图片图片

这个时候我们就本地安装部署完成了,可以通过命令行与AI聊天了,也可以给它一些要求,让他成为你想想中的AI伴侣的模样,这可能需要更高的配置要求。

图片图片

相关资讯

AI 重塑运维:基于 Spring AI 的 Docker 自然语言管理实践

MCP (Model Context Protocol) 是一个创新的开源协议,它的核心目标是彻底简化 AI 应用程序的开发流程。 通过提供标准化的通信接口,MCP 在 AI 模型与应用程序上下文之间搭建了一座智能桥梁,让开发者能够更加高效地构建和部署 AI 驱动的应用。 MCP Docker 服务器使用指南 图片在容器化技术日益普及的今天,Docker 的管理和运维工作往往需要掌握大量的命令和配置知识。

三分钟学会计算DeepSeek的显存内存配置

DeepSeek本地部署前段时间DeepSeek震惊了全世界不容易啊终于国内有了自己的精品图片但访问过程中频繁的 “服务器繁忙”,也让很多人尝而不得作为技术人员都在考虑如何充分利用开源的价值让我们的程序也能借船出海搭上AI的快车,那么问题来了。 如果我需要本地部署一个大模型需要什么配置的电脑呢? 显卡、显存怎么选配模型的大小,决定了对硬件的需求以 DeepSeek-R1 为例1.5b、7b、32b、70b、671b 之间差距非常大图片很多人埋怨说:我的大模型就是个“人工智障”但你得反过来检视一下是不是用的模型参数太少了?

剑桥计算机博士推荐,毕业之前,我需要掌握这9个工具

无论你在创业还是在做学术研究,这些工具都将使你的技能更上一层楼。 ​