JetBrains 旗下 AI Assistant 应用获更新,支持开发者接入本地 DeepSeek 等大语言模型

JetBrains 现已更新旗下“AI Assistant”应用,改进 LM Studio 功能,新增支持调用本地大语言模型,降低开发者对 OpenAI、Anthropic 等云服务的依赖。

JetBrains 现已更新旗下“AI Assistant”应用,改进 LM Studio 功能,新增支持调用本地大语言模型,降低开发者对 OpenAI、Anthropic 等云服务的依赖。

JetBrains 旗下 AI Assistant 应用获更新,支持开发者接入本地 DeepSeek 等大语言模型

AI在线获悉,LM Studio 是 JetBrains 为其“AI Assistant 应用”提供的一项功能,允许开发者下载部署管理 Llama、Mistral 等开源模型,并通过 API 接口对接各类开发工具。而在本次更新后,LM Studio 可以允许开发者直接运行计算机本地的 DeepSeek 等离线模型

JetBrains 旗下 AI Assistant 应用获更新,支持开发者接入本地 DeepSeek 等大语言模型

JetBrains 旗下 AI Assistant 应用获更新,支持开发者接入本地 DeepSeek 等大语言模型

此外,JetBrains 此次更新还为 LM Studio 新增了最新的云端模型,开发者现在可以使用包括 Anthropic 的 Claude 3.5 Sonnet 和 Claude 3.5 Haiku,以及 OpenAI 的 o1、o1-mini 和 o3-mini 等模型。

相关资讯

将26个token压缩成1个,新方法极致节省ChatGPT输入框空间

进入正文之前,先考虑一下像 ChatGPT 这样的 Transformer 语言模型(LM)的 prompt:

有证据了,MIT表明:大型语言模型≠随机鹦鹉,确实能学到语义

大型语言模型能否捕捉到它们所处理和生成的文本中的语义信息?这一问题在计算机科学和自然语言处理领域一直存在争议。然而,MIT的一项新研究表明,仅基于文本形式训练、用于预测下一个token的语言模型确实能学习和表示文本的意义。

用FP8训练大模型有多香?微软:比BF16快64%,省42%内存

低精度训练是大模型训练中扩展模型大小,节约训练成本的最关键技术之一。相比于当前的 16 位和 32 位浮点混合精度训练,使用 FP8 8 位浮点混合精度训练能带来 2 倍的速度提升,节省 50% - 75% 的显存和 50% - 75% 的通信成本,而且英伟达最新一代卡皇 H100 自带良好的 FP8 硬件支持。但目前业界大模型训练框架对 FP8 训练的支持还非常有限。最近,微软提出了一种用于训练 LLM 的 FP8 混合精度框架 FP8-LM,将 FP8 尽可能应用在大模型训练的计算、存储和通信中,使用 H100