数据

南大周志华:百万模型进入学件基座系统,很多我们没预期过的事也有可能实现 | MEET 2025

大模型时代,全世界AI从业者追赶OpenAI GPT系列的脚步仍未停歇,但也有人,坚持深耕在国产原创的另一条大模型之路上。 南京大学副校长、国际人工智能联合会理事会主席周志华教授,就是其中代表。 他提出的“学件范式”,旨在从数据隐私角度着手,通过模型 规约的方式构建基座系统,让用户的需求能被自动匹配到合适的模型、模型组合上,安全、可靠地复用他人开发的模型工具。

低精度只适用于未充分训练的LLM?腾讯提出LLM量化的scaling laws

论文标题:Low-Bit Quantization Favors Undertrained LLMs: Scaling Laws for Quantized LLMs with 100T Training Tokens论文链接:(low-bit quantization)和低比特大语言模型(low-bit LLM)近期受到了广泛的关注,因为有一些研究发现,它们能够以更小的模型规模、更低的内存占用和更少的计算资源,取得与 fp16 或 bf16 精度相当的性能表现。 这一发现让低比特语言模型一度被认为是实现模型高效化的一个非常有前景的方向。 然而,这一观点受到了腾讯 AI Lab 的挑战。

机器人空间泛化也有Scaling Law!清华新国大新算法框架让机器人操作更加鲁棒

在机器人空间泛化领域,原来也有一套Scaling Law! 来自清华和新加坡国立大学的团队,发现了空间智能的泛化性规律。 在此基础上,他们提出了一套新颖的算法框架——ManiBox,让机器人能够在真实世界中应对多样化的物体位置和复杂的场景布置。

一道题烧几千美元,OpenAI新模型o3:这34道题我真不会

前几天,OpenAI 已经完成了 12 连更的最后一更 —— 如外界所料,是新的推理系列模型 o3 和 o3-mini 。 从 o1 开始,OpenAI 所指出的推理 Scaling Law 似乎带来了全新的实现 AGI 的希望。 此次被用来验证 o3 推理能力的基准是 ARC-AGI,这项基准已经提出了 5 年时间,但一直未被攻克。

DeepSeek V3“报错家门”:我是ChatGPT

要说这两天大模型圈的顶流话题,那绝对是非DeepSeek V3莫属了。 不过在网友们纷纷测试之际,有个bug也成了热议的焦点——只是少了一个问号,DeepSeek V3竟然称自己是ChatGPT。 甚至让它讲个笑话,生成的结果也是跟ChatGPT一样:加之DeepSeek V3这次爆火的一个亮点,就是训练只花了557.6万美元的成本。

超越ControlNet++!腾讯优图提出动态条件选择新架构

超越ControlNet ,让文生图更可控的新框架来了! 腾讯优图、南洋理工、浙大等研究机构联合推出DynamicControl,直接将多模态大语言模型(MLLM)的推理能力集成到文本生成图像(T2I))任务中。 而且还提出了一种新颖、高效的多控制适配器,可以自适应地选择不同的条件,从而实现动态多控制对齐。

北大数学家独作论文登数学顶刊!袁新意统一了算术与几何Bogomolov猜想

四大顶刊之一的《数学年刊》,正式接收北大袁新意独作论文。 在困扰数学界多年的Uniform Bogomolov猜想问题上取得重要进展。 值得一提的是,这篇论文还在预印版状态时就已获得一定引用,据称还在不同的学术会议中被讨论。

CPO薪资倒挂CEO,创业公司薪酬情况大起底

初创公司里,平均薪酬最高的不是CEO? 你还真别说,事实上,CEO薪酬不仅远远落后CPO(首席产品官,Chief Product Officer)。 甚至COO(首席运营官,Chief Operating Officer)、CTO(首席技术官,Chief Technology Officer)都比CEO要高。

RoboMIND:国家地方共建具身智能机器人创新中心与北京大学计算机学院联合创建的具身智能数据集和Benchmark

获取论文全部内容:文章链接 : :,具身智能产业迅猛发展,赋予机器人类人化的泛化能力是具身智能机器人技术的核心目标之一,实现这一目标的关键在于如何使各类机器人本体在面对多样化的环境和任务时,能够展现出卓越的性能。 正如ChatGPT需要海量文本数据来训练一样,想要培养出一个能力全面的机器人,也需要大量优质的训练数据,数据集是具身智能技术发展的重要基石。 与视觉或语言数据的获取相比,收集机器人训练数据远比收集文本或图像数据困难得多,需要在专门的环境中记录机器人的每个关节动作和末端执行器的信息,这个过程不仅需要昂贵的硬件设备,还需投入大量人力来确保数据质量,因而业内目前最具通用性的机器人操作策略主要依赖于在有限多样性条件下收集的数据,大规模多构型具身智能数据集和Benchmark是极为稀缺的资源。

北大开源首个针对视频编辑的新指标,与人类感知高度对齐|AAAI25

视频生成模型卷得热火朝天,配套的视频评价标准自然也不能落后。 现在,北京大学MMCAL团队开发了首个用于视频编辑质量评估的新指标——VE-Bench,相关代码与预训练权重均已开源。 它重点关注了AI视频编辑中最常见的一个场景:视频编辑前后结果与原始视频之间的联系。

AAAI 2025 | 合成数据助力自驾点云异常检测新SOTA

论文信息论文题目:LiON: Learning Point-wise Abstaining Penalty for LiDAR Outlier DetectioN Using Diverse Synthetic Data论文发表单位:清华大学, 厦门大学,滴滴出行, 香港中文大学-深圳论文地址::。 然而,由于点云不像图像那样具有丰富的语义信息,在点云中这个识别异常点是一项极具挑战性的任务。 本工作从两个方面缓解了点云缺乏语义信息对异常点感知的影响:1) 提出了一种新的学习范式,使模型能够学习更鲁棒的点云表征,增强点与点之间的辨别性;2) 借助额外的数据源,ShapeNet,提出了一套可以生成多样且真实伪异常的方法。

Deepseek v3正式发布:用557.6万美金超越Claude 3.5 Sonnet的惊人杰作

2024年12月26日,DeepSeek AI正式发布了其最新的大型语言模型——DeepSeek-V3,每秒处理 60 个 token,比 V2 快 3 倍! MoE架构,6710 亿参数,激活 370 亿参数,训练基于 14.8 万亿高质量 token,完全开源,附送53页pdf技术论文主要看点1.DeepSeek-V3 采用了创新的知识蒸馏方法,将 DeepSeek R1 系列模型中的推理能力迁移到标准 LLM 中。 该方法巧妙地融合了 R1 的验证和反思模式,显著提高了 DeepSeek-V3 的推理性能,同时又保留了对输出风格和长度的控制2.首次在大规模模型上验证了 FP8 训练的可行性和有效性3.通过协同优化,有效克服了跨节点 MoE 训练中的通信瓶颈,使得计算与通信几乎完全重叠4.在 DeepSeek-V2 高效架构的基础上,DeepSeek-V3 引入无辅助损失的负载均衡策略和多标记预测(MTP)目标,不仅提升模型性能,还支持推理加速的预测解码5.仅耗费了 266.4万 H800 GPU 小时,就完成了对 14.8 万亿 token 的预训练。

「数字孪生」东京上线!Jim Fan:具身智能零样本迁移现实世界,共享「蜂群思维」

东京高分辨率点云3D数字孪生模型现已公开发布! 任何人都可以免费下载。 项目地址:,而且它对东京的刻画也非常之精细——其绝对位置精度大约在10cm以内。

时隔6年BERT升级!仅编码器架构没被杀死,更快更准确更长上下文

时隔6年,一度被认为濒死的“BERT”杀回来了——更现代的ModernBERT问世,更快、更准、上下文更长,发布即开源! 去年一张“大语言模型进化树”动图在学术圈疯转,decoder-only枝繁叶茂,而曾经盛极一时的encoder-only却似乎走向没落。 ModernBERT作者Jeremy Howard却说:encoder-only被低估了。

LeCun最新访谈:距离AGI可能不到10年,下一代AI需要情感和视觉训练

头戴Meta爆火智能眼镜,LeCun再次表示人类距离AGI的时间没有那么近,“大约在5-10年”,对语言模型发展的判断更是不乐观。 未来在哪? 还是得看世界模型。

行人、车辆、动物等ReID最新综述!武大等全面总结Transformer方法

目标重识别(Object Re-identification,简称Re-ID)旨在跨不同时间和场景识别特定对象。 近年来,基于Transformer的Re-ID改变了该领域长期由卷积神经网络(CNN)主导的格局,不断刷新性能记录,取得重大突破。 与以往基于CNN与有限目标类型的Re-ID综述不同,来自武汉大学、中山大学以及印第安纳大学的研究人员全面回顾了近年来关于Transformer在Re-ID中日益增长的应用研究,深入分析Transformer的优势所在,总结了Transformer在四个广泛研究的Re-ID方向上的应用,同时将动物加入Re-ID目标类型,揭示Transformer架构在动物Re-ID应用的巨大潜力。

扒一扒o3-mini背后团队:3位华人核心成员,北大清华南开校友在列

比o1 mini性能更强,价格更低,性价比新王o3-mini再次引爆AI圈热议。 在官方截图中,中等o3-mini的性能和o1 mini差不多,价格却只有后者的一半,整体延迟也和GPT-4o相当。 最主要的,这表明了OpenAI可以在降低成本的同时提高性能。

o3并非独门秘技,谷歌已发背后关键机制,方法更简单、成本更低

o1/o3带火的推理计算Scaling,原来谷歌早在今年8月就曾探讨过。 当时,来自斯坦福、牛津以及谷歌DeepMind的团队提出通过重复采样来扩展推理计算量——结果在编码任务中将性能最多提高40%。 他们发现小模型通过生成多种答案/样本,其任务表现可能比一些大型模型单次尝试还要好。