超详细,DeepSeep 接入PyCharm实现AI编程!(支持本地部署DeepSeek及官方DeepSeek接入),建议收藏!

在当今数字化时代,AI编程助手已成为提升开发效率的利器。 DeepSeek作为一款强大的AI模型,凭借其出色的性能和开源免费的优势,成为许多开发者的首选。 今天,就让我们一起探索如何将DeepSeek接入PyCharm,实现高效、智能的AI编程。

在当今数字化时代,AI编程助手已成为提升开发效率的利器。DeepSeek作为一款强大的AI模型,凭借其出色的性能和开源免费的优势,成为许多开发者的首选。今天,就让我们一起探索如何将DeepSeek接入PyCharm,实现高效、智能的AI编程。

一、为什么选择DeepSeek + PyCharm?

DeepSeek是一款拥有671B参数的混合专家(MoE)模型,其处理速度每秒可达60个Token,性能卓越。PyCharm作为一款广受开发者喜爱的Python集成开发环境,提供了智能代码提示、自动补全、语法检查等功能。将DeepSeek与PyCharm结合,不仅能提升编程效率,还能在本地实现AI辅助编程,无需担心隐私和成本问题。

接下来,本文教你两种接入方法:

  • 将本地部署的DeepSeek,接入PyCharm
  • 使用官方的DeepSeek,并接入PyCharm

图片图片

二、将本地部署的DeepSeek,接入PyCharm

DeepSeek R1模型是开源的,我们可以选择在本地部署DeepSeek,在本地搭建大模型,除了免费、能够方便个人知识库管理外,还可以保障数据隐私安全问题,适合个人知识管理与编程学习。

接下来,介绍如何将在本地搭建DeepSeek模型,并将本地大模型接入到PyCharm,以实现AI高效编程。

为了照顾到大部分朋友,本文推荐的搭建方法已将电脑配置要求降低最小,选择DeepSeek模型参数也是最小的,按照此方法,普通电脑也能飞速跑。

具体操作:

1、下载ollama(https://ollama.com/download)

图片图片

2、选择模型,DeepSeek-R1 一共提供了7个不同版本,随着尺寸参数变大对电脑要求也会变高

图片图片

电脑没有大显存GPU的朋友,推荐安装1.5b尺寸,这版尺寸大多数电脑都能流畅运行。

3、下载模型,以1.5b为例,

图片图片

打开命令行,输入:ollama run deepseek-r1:1.5b

图片图片

下载完成后,就能直接将deepseek下载到自己的电脑上。

4、接下来,就是将本地安装好的模型接入到PyCharm 了。

5、打开PyCharm,找到文件(File)-设置(Settings)-插件(Plugins),输入CodeGPT,即可点击安装(Install)即可:

图片图片

6、安装好CodeGPT插件后,在工具(Tools)下会出现CodeGPT,点击Providers,找到Ollama(Local),选择刚刚安装的deepseek-r1:1.5b,点击OK就可以了:

图片图片

7、完成上述操作后,就可以愉快的在PyCharm中使用DeepSeek-r1实现AI编程学习了,左侧是代码编辑界面,右侧是r1大模型,直接对话式提问,省去了来回不同页面折腾的麻烦:

图片图片

大家可以自行感受一下DeepSeek-r1:1.5b大模型的回复延时,几乎1~2秒钟就可以响应,效果还算可以。

另外,CodeGPT插件显示了Tokens数,只是一个数字统计,无任何费用,因为使用的是本地自己电脑的算力哦。

三、使用官方的DeepSeek,并接入PyCharm

1、访问DeepSeek官网(https://www.deepseek.com/),点击“API开放平台”。

2、在左侧菜单中点击“API Keys”,然后点击“创建API Key”,输入名称(如“AI代码提示”),点击“创建”。创建成功后,复制生成的API Key,妥善保存。

图片图片

3、打开PyCharm,依次点击“文件 -> 设置 -> 插件”,搜索“Continue”插件,点击“安装”。

图片图片

安装完成后,点击“应用”,插件安装成功。

4、安装完成后,在右侧标签栏中找到“Continue”标签,点击进入设置。点击“设置”按钮,弹出配置文件,将apiKey替换为之前保存的DeepSeek API Key。

图片图片

5、选择DeepSeek Coder模型,点击连接。

图片图片

6、保存配置文件后,即可开始使用DeepSeek的AI编程功能。并且可以发现,Continue插件,也是支持连接本地部署 的模型的

图片图片

好了,CodeGPT和Continue两款插件,应该是目前大模型+编程UI做的最好的插件了,感兴趣的朋友可以根据此篇文章动手安装试试。

相关资讯

将多模态大模型稀疏化,3B模型MoE-LLaVA媲美LLaVA-1.5-7B

对于大型视觉语言模型(LVLM)而言,扩展模型可以有效提高模型性能。然而,扩大参数规模会显著增加训练和推理成本,因为计算中每个 token 都会激活所有模型参数。基于此,来自北京大学、中山大学等机构的研究者联合提出了一种新颖的 LVLM 训练策略 ——MoE-Tuning。MoE-Tuning 可以构建参数数量惊人但计算成本恒定的稀疏模型,并有效解决通常与多模态学习和模型稀疏性相关的性能下降问题。该研究还提出了一种基于 MoE 的新型稀疏 LVLM 架构 ——MoE-LLaVA 框架。该框架独特地在部署过程中通过路

DeepSeek-R2曝5月前上线!第三弹DeepGEMM 300行代码暴击专家优化内核

第三天,DeepSeek发布了DeepGEMM。 这是一个支持稠密和MoE模型的FP8 GEMM(通用矩阵乘法)计算库,可为V3/R1的训练和推理提供强大支持。 仅用300行代码,DeepGEMM开源库就能超越专家精心调优的矩阵计算内核,为AI训练和推理带来史诗级的性能提升!

别TM浪费算力了,这样才能最大限度发挥deepseek的潜能 - MOE

最近几周自学deepseek原理 应用 实践,一些成果,和大家分享:小众关心的,deepseek核心技术原理;大众关心的,提示词要怎么写;今天和大家聊聊,deepseek的核心机制之一的混合专家MOE。 什么是混合专家MOE? 混合专家,Miture of Experts,该模型思路不再追求大而全,转而追求多而专精。