DeepSeek 在网文领域首次应用,阅文“作家助手”升级三大辅助创作功能

阅文集团今日宣布,旗下作家辅助创作产品“作家助手”应用已集成独立部署的 DeepSeek-R1 大模型,据称这也是 DeepSeek 首次在网文领域应用。

阅文集团今日宣布,旗下作家辅助创作产品“作家助手”应用已集成独立部署的 DeepSeek-R1 大模型,据称这也是 DeepSeek 首次在网文领域应用

作家助手

据介绍,此次作家助手集成 DeepSeek-R1 大模型后,将在智能问答获取灵感描写润色三方面得到升级,提供更智能的创作辅助服务。

AI在线查询获悉,作家助手是阅文集团打造的一款移动创作应用,已覆盖 Android 、iOS、Windows 平台,支持移动创作、接收消息、统计读者数据、云端同步等功能。

幻方量化旗下 AI 公司深度求索(DeepSeek)在上月(1 月 20 日)正式发布 DeepSeek-R1 模型,并同步开源模型权重。第三方基准测试显示,这一模型超越了美国领先的人工智能公司,包括 OpenAI、Meta 和 Anthropic。

相关资讯

OpenAI首席研究官:DeepSeek独立发现了o1的一些核心思路,奥特曼、LeCun纷纷置评

成本打下来了,需求更多才对? 春节这几天,国内外 AI 圈都被 DeepSeek 刷了屏。 英伟达的股市震荡更是让全世界看得目瞪口呆(参见《英伟达市值蒸发近 6000 亿美元,而 DeepSeek 刚刚又开源新模型》)。

自有歪果仁为DeepSeek「辩经」:揭穿围绕DeepSeek的谣言

围绕 DeepSeek 的谣言实在太多了。 面对 DeepSeek R1 这个似乎「一夜之间」出现的先进大模型,全世界已经陷入了没日没夜的大讨论。 从它的模型能力是否真的先进,到是不是真的只用了 550W 进行训练,再到神秘的研究团队,每个角度都是话题。

一块钱100万token,超强MoE模型开源,性能直逼GPT-4-Turbo

开源大模型领域,又迎来一位强有力的竞争者。近日,探索通用人工智能(AGI)本质的 DeepSeek AI 公司开源了一款强大的混合专家 (MoE) 语言模型 DeepSeek-V2,主打训练成本更低、推理更加高效。项目地址::DeepSeek-V2: A Strong, Economical, and Efficient Mixture-of-Experts Language ModelDeepSeek-V2 参数量达 236B,其中每个 token 激活 21B 参数,支持 128K token 的上下文长度。与