新开普:星普大模型表现出色,算力消耗显著降低

在最近的一次机构电话交流会上,新开普公司透露了其自研的星普大模型的最新测评结果。 该模型采用了 SFT(监督微调)与 RL(强化学习)的训练技术,在智能推理效果上与 DeepSeek-R1相近,且算力消耗仅为 DeepSeek-R1的1/20。 这一成果不仅彰显了新开普在人工智能领域的研发实力,同时也为降低硬件投入提供了可能。

在最近的一次机构电话交流会上,新开普公司透露了其自研的星普大模型的最新测评结果。该模型采用了 SFT(监督微调)与 RL(强化学习)的训练技术,在智能推理效果上与 DeepSeek-R1相近,且算力消耗仅为 DeepSeek-R1的1/20。这一成果不仅彰显了新开普在人工智能领域的研发实力,同时也为降低硬件投入提供了可能。

星普大模型的成功,不仅体现在其智能推理能力的提升上,更在于其高效的算力消耗。这一进展意味着,企业在部署此类模型时,所需的硬件投资大大降低,节约下来的算力预算可以用于软件开发和智能应用的扩展。新开普表示,未来会参加行业评测,以获取更具权威性的数据支持,进一步证明星普大模型的市场竞争力。

大脑 大模型

图源备注:图片由AI生成,图片授权服务商Midjourney

与此同时,业内对算力的需求持续高涨,而企业在寻求更高效的解决方案时,往往面临高昂的硬件投入。新开普的这一成果,恰逢其时,为许多企业提供了新的选择。在保证使用体验与服务精度的前提下,降低算力硬件投入,将有助于提升整体的运营效率和经济效益。

总体来看,新开普星普大模型的测试结果,将为行业内带来更多创新与竞争,助力企业在数字化转型过程中实现更大的突破。随着技术的不断进步和成熟,未来 AI 模型的应用将愈加广泛,推动各行各业的智能化发展。

相关资讯

Sebastian Raschka:关于DeepSeek R1和推理模型,我有几点看法

著名 AI 研究者和博主 Sebastian Raschka 又更新博客了。 这一次,他将立足于 DeepSeek 技术报告,介绍用于构建推理模型的四种主要方法,也就是如何通过推理能力来增强 LLM。 Sebastian Raschka 表示:「我希望这能提供有价值的见解,并帮助你了解围绕这一主题的快速演变的文献和话题炒作。

强化学习成帮凶,对抗攻击LLM有了新方法

事物都有多面性,正如水,既能载舟,亦能覆舟,还能煮粥。 强化学习也是如此。 它既能帮助 AlphaGo 击败顶级围棋棋手,还能帮助 DeepSeek-R1 获得强大的推理能力,但它也可能被恶意使用,成为攻击 AI 模型的得力武器。

揭开深度强化学习的神秘面纱

编辑 | 萝卜皮深度强化学习是人工智能最有趣的分支之一。它是人工智能社区许多显着成就的基石,它在棋盘、视频游戏、自动驾驶、机器人硬件设计等领域击败了人类冠军。深度强化学习利用深度神经网络的学习能力,可以解决对于经典强化学习(RL)技术来说过于复杂的问题。深度强化学习比机器学习的其他分支要复杂得多。在这篇文章中,我们将尝试在不涉及技术细节的情况下,揭开它的神秘面纱。状态、奖励和行动每个强化学习问题的核心都是代理和环境。环境提供有关系统状态的信息。代理观察这些状态并通过采取行动与环境交互。动作可以是离散的(例如,拨动开