AI在线 AI在线

数据

通义新一代轻量化大语言模型DistilQwen2.5 发布 提升性能与效率

在大语言模型逐渐普及的今天,如何在资源受限的环境中实现高效部署已成为重要课题。 为了解决这一挑战,基于 Qwen2.5的轻量化大模型系列 DistilQwen2.5正式发布。 该模型采用了创新的双层蒸馏框架,通过优化数据和参数融合技术,不仅保留了模型的性能,同时显著降低了计算资源的消耗。
2/26/2025 4:58:00 PM
AI在线

多模态大模型对齐新范式,10个评估维度全面提升,快手&中科院&南大打破瓶颈

尽管多模态大语言模型(MLLMs)取得了显著的进展,但现有的先进模型仍然缺乏与人类偏好的充分对齐。 这一差距的存在主要是因为现有的对齐研究多集中于某些特定领域(例如减少幻觉问题),是否与人类偏好对齐可以全面提升MLLM的各种能力仍是一个未知数。 快手,中科院,南大合作从三个层面入手推动MLLM alignment的发展,包括数据集,奖励模型以及训练算法,最终的alignment pipeline使得不同基础模型在10个评估维度,27个benchmark上都取得了一致的性能增益,比较突出的是,基于本文提出的数据集和对齐算法对LLaVA-ov-7B模型进行微调后, conversational能力平均提升了19.5%,安全性平均提升了60%。
2/26/2025 1:00:00 PM
量子位

智元机器人AgiBot Digital World仿真框架上线,数据集丰富多样

智元机器人今日正式宣布推出自主研发的大型仿真框架AgiBot Digital World,为机器人操作提供灵活的仿真数据生成方案、预训练的大规模仿真数据和统一的模型评测标准,并同步开源海量仿真数据。 AgiBot Digital World是专为机器人操作技能研究与应用设计的仿真框架,集成海量逼真三维资产、多样化专家轨迹生成机制和全面模型评估工具。 它通过高保真模拟训练场景,全链自动化生成数据,实现一系列具身仿真服务。
2/26/2025 11:18:00 AM
AI在线

开源的风吹到视频生成:阿里开源登顶VBench的万相大模型,一手实测来了!

当很多 AI 公司还就是否该走开源路线而感到左右为难时,阿里的技术团队又开源了一个新的模型 —— 万相(Wan)视频生成大模型(包括全部推理代码和权重,最宽松的开源协议)。 经常玩视频生成模型的同学应该知道,当前的很多模型仍然面临多方面挑战,比如难以还原复杂的人物动作,处理不好物体交互时的物理变化,遇到长文本指令就「选择性遵循」等。 如果三个方面都做得比较好,那模型厂商多半是不舍得开源的。
2/26/2025 9:44:14 AM
机器之心

DeepSeek-R1秘籍轻松迁移,最低只需原始数据0.3%

DeepSeek-R1背后关键——多头潜在注意力机制(MLA),现在也能轻松移植到其他模型了! 而且只需原始数据的0.3%~0.6%。 这项研究由复旦大学、华东师范大学、上海AI Lab等联合提出,复旦教授邱锡鹏(Moss大模型项目负责人)也在作者名单之列。
2/25/2025 10:03:20 AM
量子位

LeCun力荐!进化算法淘汰77%低质数据:RIP方法让模型性能狂飙60%

在LLM的开发中,推动模型进步的主要驱动力是精心挑选高质量的训练示例。 虽然Scaling Law的确能实现「力大砖飞」,但仅仅增加数据量并不能保证模型性能的提升,数据的质量才是关键。 低质量的数据可能会引入噪声,影响模型的训练效果。
2/25/2025 9:17:47 AM
新智元

刚刚,全球首个混合推理模型Claude 3.7降世!最强编程大脑暴击DeepSeek R1

憋了大半年,Anthropic终于放出大招——首款混合推理模型Claude 3.7 Sonnet重磅登场! 这是Claude系列中,迄今为止最智能的模型,几乎能够及时响应,并进行可扩展的、逐步的思考。 简言之,一个模型,两种思考方式。
2/25/2025 9:13:16 AM
新智元

不用GAN不用扩散,无需训练解锁AI生图新境界!判别模型成神秘第三极

判别模型与生成模型长期以来彼此独立,前者专注于分类和识别,后者用于数据生成。 最近一项名为「直接上升合成」(Direct Ascent Synthesis,DAS)的独立研究,颠覆了这一传统观念,揭示出判别模型中隐藏着令人惊叹的生成能力。 论文链接:。
2/24/2025 1:35:00 PM
新智元

国外权威认证!DeepSeek超150万模型,成最受欢迎开源大模型

今天凌晨3点,全球最大开源平台之一huggingface联合创始人兼首席执行官Clement Delangue发布了最新数据:中国开源大模型DeepSeek-R1在150万模型中,成为该平台最受欢迎的开源大模型,点赞超过1万。 前不久,Clement还特意发文恭喜DeepSeek-R1的下载量超过1000万次,同样创造了huggingface平台有史以来最受欢迎的模型。 看来,Clement也吃到DeepSeek的红利了,对它是真爱啊连续表扬。
2/24/2025 10:01:23 AM
AIGC开放社区

出人意料!DeepSeek-R1用的GRPO其实没必要?规模化强化学习训练用PPO就够了

DeepSeek-R1 非常热门,而在其公布的训练配方中,GRPO(Group Relative Policy Optimization)非常关键,是 DeepSeek-R1 核心的强化学习算法。 PPO 与 GRPO 的对比,来自论文《DeepSeekMath: Pushing the Limits of Mathematical Reasoning in Open Language Models》相较于 PPO,GRPO 去掉了价值模型,而是通过分组分数来估计基线,从而可极大减少训练资源。 DeepSeek-R1 技术报告中写到:「具体来说,我们使用 DeepSeek-V3-Base 作为基础模型,并采用 GRPO 作为强化学习框架来提高模型的推理性能。
2/21/2025 12:24:14 PM
机器之心

再次颠覆学界想象,何恺明发表新作:扩散模型不一定需要噪声条件

一直以来,研究者普遍认为,去噪扩散模型要想成功运行,噪声条件是必不可少的。 而大神何恺明的一项最新研究,对这个观点提出了「质疑」。 「受图像盲去噪研究的启发,我们研究了各种基于去噪的生成模型在没有噪声调节的情况下的表现。
2/21/2025 9:40:00 AM
机器之心

京东联合地瓜机器人等多家企业高校,推出业内首个具身智能原子技能库架构

具身智能技术突破与应用是通向 AGI 的必经之路,目前全球科技公司正加速布局,包括特斯拉 Optimus、Agility Digit、波士顿动力 Atlas 及 Figure AI 等,今年蛇年春晚机器人“扭秧歌”也成为了人们茶余饭后的谈资。 随着大模型技术的进步,具身智能也迎来了快速的发展。 但在国内众多企业与高校推动相关技术发展的过程中,核心挑战仍在于具身操作泛化能力,即如何在有限具身数据下,使机器人适应复杂场景并实现技能高效迁移。
2/20/2025 10:09:00 AM
新闻助手

「诺奖风向标」2025斯隆奖公布,清华姚班大神霸榜!8位华人计算机科学家入选

2025斯隆研究奖,最新名单刚刚出炉! 今年,126位杰出的职业生涯早期科学家,荣获「诺奖风向标」斯隆研究奖。 这些学者凭借卓越的成就和巨大的发展潜力,成功跻身美国和加拿大新一代科学领军人物的行列。
2/19/2025 4:01:46 PM
新智元

Kimi新论文再次“撞车”DeepSeek,都谈到了长文注意力机制

Kimi背后的长上下文处理机制曝光了! 这项名为MoBA的新型注意力机制,能将处理1M长文本的速度一下子提升6.5倍,而且还是经过Kimi平台实际验证的那种。 概括而言,这项耗时一年半的工作主要看点在:把完整上下文划分成块,让每个查询token自动去关注最相关的KV块,这样就能高效处理长序列数据;提出一种新的参数无关的top-k门控机制,它能给每个查询token挑选出最相关的块,保证模型只聚焦在最有用信息的块上;支持在全注意力和稀疏注意力模式之间轻松切换;一言以蔽之,MoBA将MoE(专家混合)应用于注意力机制,通过遵循一种“less structure” 原则,允许模型自主决定关注哪些区域或位置。
2/19/2025 4:01:37 PM
量子位

英伟达CEO老黄预言:未来,每个人都有自己的AI导师!

AI导师时代来临,学习门槛将大幅降低! 在近日接受《财富》杂志采访时,黄仁勋直言:「AI的迅猛发展正在彻底改变知识获取的方式。 」以往学习一门新技能或进入陌生领域,需要投入大量时间和精力,而AI导师的出现让这一切发生了翻天覆地的变化。
2/19/2025 2:02:11 PM
新智元

马斯克“地表最强”Grok 3炸场,竞技场首超1400分

刚刚,马斯克xAI的Grok 3终于亮相(超300万人次围观)! 一出道即巅峰,竞技场(lmarena.ai)官方给出了这样的评价:Grok 3是首个突破1400分的模型,并且在所有类别中排名第一。 而且,Grok 3还是首个在10万张(后扩展到20万)H100集群上训练出的模型。
2/18/2025 3:09:07 PM
量子位

微软开放3.1T token高质量数据!通用/代码/数学/问答,全领域超越开源

过去几年,大型语言模型(LLMs)已经成为人工智能研究的一个关键领域,从大规模的自然语言数据中学习,使其能够以极高的准确率执行各种与语言相关的任务。 得益于模型扩展性方面的进展,研究人员能够创建具有前所未有复杂度的模型。 当前的研究趋势是致力于构建更大、更复杂的模型,具有数百/数千亿个参数,但大型语言模型的训练需要海量的训练数据,尤其随着模型参数量的上升,对于优质数据数量的要求也将进一步加大,优质数据量的缺乏极大限制了模型能力的进一步增长。
2/18/2025 3:03:58 PM
新智元

强化学习Scaling Law错了?无需蒸馏,数据量只要1/6,效果还更好

DeepSeek-R1带火了使用强化学习训练LLM。 在训练中,AI灵机一动,让作者耳目一新,甚至因此惊叹到:这就是强化学习的力与美! DeepSeek-R1-Zero惊艳了研究人员然而,对RL训练的理解存在空白:这些工作的训练数据的透明度有限,谁知道是方法好还是数据集质量好?
2/18/2025 3:02:13 PM
新智元