DeepSeek V2 系列 AI 模型收官,联网搜索上线

DeepSeek 官方公众号昨日(12 月 10 日)发布博文,宣布 DeepSeek V2 系列收官,推出 DeepSeek V2.5 的最终版微调模型 DeepSeek-V2.5-1210,主要支持联网搜索功能,全面提升各项能力。

DeepSeek 官方公众号昨日(12 月 10 日)发布博文,宣布 DeepSeek V2 系列收官,推出 DeepSeek V2.5 的最终版微调模型 DeepSeek-V2.5-1210,主要支持联网搜索功能,全面提升各项能力。

DeepSeek V2 系列 AI 模型收官,联网搜索上线

DeepSeek-V2.5-1210 通过 Post-Training 迭代,在数学、代码、写作、角色扮演等方面均取得显著进步,此外优化了文件上传功能,并且全新支持了联网搜索。

DeepSeek V2 系列 AI 模型收官,联网搜索上线

DeepSeek-V2.5-1210 版本支持了联网搜索功能,并已上线网页端。用户访问 https://chat.deepseek.com/,在输入框中打开“联网搜索”即可体验。目前,API 不支持搜索功能。

该模型能够深入分析海量网页信息,提供更全面、准确和个性化的答案。面对复杂问题,模型会自动提取多个关键词并行搜索,快速提供多样化的结果。目前,API 暂不支持搜索功能。AI在线援引博文介绍,附上搜索结果示例如下:

DeepSeek V2 系列 AI 模型收官,联网搜索上线

DeepSeek V2 系列 AI 模型收官,联网搜索上线

相关资讯

OpenAI首席研究官:DeepSeek独立发现了o1的一些核心思路,奥特曼、LeCun纷纷置评

成本打下来了,需求更多才对? 春节这几天,国内外 AI 圈都被 DeepSeek 刷了屏。 英伟达的股市震荡更是让全世界看得目瞪口呆(参见《英伟达市值蒸发近 6000 亿美元,而 DeepSeek 刚刚又开源新模型》)。

一块钱100万token,超强MoE模型开源,性能直逼GPT-4-Turbo

开源大模型领域,又迎来一位强有力的竞争者。近日,探索通用人工智能(AGI)本质的 DeepSeek AI 公司开源了一款强大的混合专家 (MoE) 语言模型 DeepSeek-V2,主打训练成本更低、推理更加高效。项目地址::DeepSeek-V2: A Strong, Economical, and Efficient Mixture-of-Experts Language ModelDeepSeek-V2 参数量达 236B,其中每个 token 激活 21B 参数,支持 128K token 的上下文长度。与

DeepSeek-R1详细解读!

DeepSeek-R1爆火,今天来详细看下。 论文地址::::现有LLMs在推理任务上的改进主要依赖监督微调(SFT)和后训练(Post-Training)方法,但这些方法需要大量人工标注数据且成本高昂。 OpenAI的o1系列模型虽通过扩展推理链(Chain-of-Thought, CoT)提升了性能,但其测试时扩展仍存在挑战。