DeepSeek V2 系列 AI 模型收官,联网搜索上线

DeepSeek 官方公众号昨日(12 月 10 日)发布博文,宣布 DeepSeek V2 系列收官,推出 DeepSeek V2.5 的最终版微调模型 DeepSeek-V2.5-1210,主要支持联网搜索功能,全面提升各项能力。

DeepSeek 官方公众号昨日(12 月 10 日)发布博文,宣布 DeepSeek V2 系列收官,推出 DeepSeek V2.5 的最终版微调模型 DeepSeek-V2.5-1210,主要支持联网搜索功能,全面提升各项能力。

DeepSeek V2 系列 AI 模型收官,联网搜索上线

DeepSeek-V2.5-1210 通过 Post-Training 迭代,在数学、代码、写作、角色扮演等方面均取得显著进步,此外优化了文件上传功能,并且全新支持了联网搜索。

DeepSeek V2 系列 AI 模型收官,联网搜索上线

DeepSeek-V2.5-1210 版本支持了联网搜索功能,并已上线网页端。用户访问 https://chat.deepseek.com/,在输入框中打开“联网搜索”即可体验。目前,API 不支持搜索功能。

该模型能够深入分析海量网页信息,提供更全面、准确和个性化的答案。面对复杂问题,模型会自动提取多个关键词并行搜索,快速提供多样化的结果。目前,API 暂不支持搜索功能。AI在线援引博文介绍,附上搜索结果示例如下:

DeepSeek V2 系列 AI 模型收官,联网搜索上线

DeepSeek V2 系列 AI 模型收官,联网搜索上线

相关资讯

一块钱100万token,超强MoE模型开源,性能直逼GPT-4-Turbo

开源大模型领域,又迎来一位强有力的竞争者。近日,探索通用人工智能(AGI)本质的 DeepSeek AI 公司开源了一款强大的混合专家 (MoE) 语言模型 DeepSeek-V2,主打训练成本更低、推理更加高效。项目地址::DeepSeek-V2: A Strong, Economical, and Efficient Mixture-of-Experts Language ModelDeepSeek-V2 参数量达 236B,其中每个 token 激活 21B 参数,支持 128K token 的上下文长度。与

DeepSeek开源数学大模型,高中、大学定理证明新SOTA

DeepSeek-Prover-V1.5 通过结合强化学习和蒙特卡洛树搜索,显著提升了证明生成的效率和准确性。AI 技术与数学发现的进展,正前所未有地交织在一起。前段时间,著名数学家陶哲轩在牛津数学公开讲座中做了主题为「AI 在科学和数学中的潜力」的主题分享。他指出,将 AI 整合到数学领域将使形式化证明的编写速度超过人类证明(人类证明容易出错)。这将成为一个关键转折点,意味着形式化证明的使用将不仅限于验证现有的证明,还将用于创造新的数学知识。这将通过广泛的人类数学家与 AI 数学家之间的协作来实现。我们将迎来一个

推理性能直逼o1,DeepSeek再次出手,重点:即将开源

DeepSeek 又出手了,这次又是重磅炸弹。 昨晚,DeepSeek 上线了全新的推理模型 DeepSeek-R1-Lite-Preview ,直接冲击 OpenAI o1 保持了两个多月的大模型霸主地位。 在美国数学竞赛(AMC)中难度等级最高的 AIME 以及全球顶级编程竞赛(codeforces)等权威评测中,DeepSeek-R1-Lite-Preview 模型已经大幅超越了 GPT-4o 等顶尖模型,有三项成绩还领先于 OpenAI o1-preview。