数据
AAAI 2025 | IML领域稀疏化视觉Transformer,代码已开源
SparseViT 的主要科研成员来自四川大学吕建成团队,合作方为澳门大学潘治文教授团队。 论文:《Can We Get Rid of Handcrafted Feature Extractors? SparseViT: Nonsemantics-Centered, Parameter-Efficient Image Manipulation Localization through Spare-Coding Transformer》论文链接::,图像处理变得非常方便。
GPT-4o最自私,Claude更慷慨!DeepMind发布全新「AI道德测试」
大语言模型的能力越来越强,各大厂商的目标也逐渐从简单的「互联网搜索」扩展到「可操作设备的智能体」,可以帮用户完成订外卖、购物、买电影票等复杂的任务。 在可预见的未来,人手一个LLM智能体助手,「人机协同」参与社会互动的情况将成为常态,但是,能力到位了,大模型的「道德品质」足以营造出一个良好的竞争、合作、谈判、协调和信息共享的环境吗? 是互相合作,还是为了达成任务目标,而不择手段?
仅需一万块钱!清华团队靠强化学习让 7B模型数学打败GPT-4o
OpenAI o1和o3模型的发布证明了强化学习能够让大模型拥有像人一样的快速迭代试错、深度思考的高阶推理能力,在基于模仿学习的Scaling Law逐渐受到质疑的今天,基于探索的强化学习有望带来新的Scaling Law。 近日,清华大学NLP实验室、上海AI Lab、清华大学电子系、OpenBMB社区等团队提出一种新的结合过程奖励的强化学习方法——PRIME(Process Reinforcement through IMplicit REwards)。 采用PRIME方法,研究人员不依赖任何蒸馏数据和模仿学习,仅用8张A100,花费一万块钱左右,不到10天时间,就能高效训练出一个数学能力超过 GPT-4o、Llama-3.1-70B的7B模型 Eurus-2-7B-PRIME。
OpenAI最大秘密,竟被中国研究者破解?复旦等惊人揭秘o1路线图
就在今天,国内的一篇论文,引得全球AI学者震惊不已。 推上多位网友表示,OpenAI o1和o3模型背后究竟是何原理——这一未解之谜,被中国研究者「发现」了! 注:作者是对如何逼近此类模型进行了理论分析,并未声称已经「破解」了这个问题实际上,在这篇长达51页的论文中,来自复旦大学等机构的研究人员,从强化学习的角度分析了实现o1的路线图。
OpenAI再招华人研究员!高中入围美国“少年诺贝尔奖”,还在哈佛教书
就在刚刚,哈佛华人研究员Jeffrey Wang正式官宣加入OpenAI——将作为基础团队研究员,负责模型预训练和推理。 消息公布后,OpenAI联创&总裁Greg Brockman也在第一时间带队欢迎。 在这之前,Jeffrey Wang在哈佛一边教课一边研究机器学习。
你的专属“钢铁侠”助手OS Agents来了!浙大联手OPPO、零一万物等10个机构推出全新综述
电影《钢铁侠》中,托尼·斯塔克的助手贾维斯(J.A.R.V.I.S.)能帮他控制各种系统并自动完成任务,曾让无数观众羡慕不已。 现在,这样的超级智能助手,终于变成现实了! 随着多模态大语言模型的爆发式进化,OS Agents横空出世,它们能无缝操控电脑和手机,为你自动搞定繁琐任务。
动物版谷歌翻译来了?Nature:用AI解码野性的呼唤!
每一种动物都有其独特的历史。 来自加拿大Carleton University的鲸鱼生物学家Shane Gero,花了20年时间试图了解鲸鱼是如何交流的。 比如,同一个家族的鲸鱼会发出特定的声音,而不同区域的抹香鲸(Physeter macrocephalus)有自己的「方言」。
多模态模型已落地多领域,OpenBayes贝式计算获评「大模型最具潜力创业企业 TOP 10」
缩放定律的放缓带来的技术路径演变在 2024 年的 NeurIPS 会议上,Ilya Sutskever 提出了一系列关于人工智能发展的挑战性观点,尤其集中于 Scaling Law 的观点:「现有的预训练方法将会结束」,这不仅是一次技术的自然演进,也可能标志着对当前「大力出奇迹」方法的根本性质疑。 Ilya 讨论了预训练模型的局限性,预见 AI 系统需要发展出更加接近人类思考方式的推理能力。 他强调,为了突破当前的局限并继续提升 AI 的能力,必须寻找新的训练方法。
全面打破GPT-4垄断、DeepSeek打下训练成本...2024年大模型领域进展全复盘
刚刚过去的 2024 年是生成式 AI 大发展的一年,我们见证了 OpenAI Sora 的崛起,大模型服务价格的飞速下降,以及国内开源大模型的奋起直追。 这全方位的快速发展让我们对下一波 AI 的新技术大规模应用充满了信心。 对于身在 AI 领域的工程师和学者们来说,他们看待这一年的观点会有不同吗?
微软论文意外「走光」,OpenAI参数全泄密!GPT-4o仅200B,o1 300B
谁能想到,微软在一篇医学领域的论文里,竟然把OpenAI模型的参数全「曝光」了! GPT-4参数约1.76万亿GPT-4o参数约2000亿GPT-4o mini参数约80亿o1-preview参数约3000亿o1-mini参数约1000亿Claude 3.5 Sonnet参数约1750亿研究人员:参数均为估算值让所有人难以置信的是,GPT-4o系列的参数如此少,mini版甚至只有8B。 有网友猜测,4o mini是一个大约有40B参数的MoE模型,其中激活参数为8B。
GitHub 7.5k star量,各种视觉Transformer的PyTorch实现合集整理好了
近一两年,Transformer 跨界 CV 任务不再是什么新鲜事了。 自 2020 年 10 月谷歌提出 Vision Transformer (ViT) 以来,各式各样视觉 Transformer 开始在图像合成、点云处理、视觉 - 语言建模等领域大显身手。 之后,在 PyTorch 中实现 Vision Transformer 成为了研究热点。
OpenAI o1「作弊」修改系统,强行击败专业象棋AI!全程无需提示
OpenAI的推理模型o1-preview最近展示了它不按常理出牌的能力。 o1-preview在与专用国际象棋引擎Stockfish比赛时,为了强行取得胜利,居然采用了入侵测试环境的卑劣手段。 而这一切都不需要任何对抗性提示。
【多模态&LLM】LLaVA系列算法架构演进:LLaVA(1.0->1.5->Next(1.6)->NeXT(Video))
LLaVA模型架构目标是结合预训练LLM和视觉模型的能力,llava使用Vicuna作为的LLM (语言解码器),CLIP作为视觉编码器。 训练过程分两阶段:LLaVA 1.5LLaVA1.5是LLaVA改进版本,主要在网络结构、数据集规模上进行改进。 LLaVA 1.5模型结构还是之前的llava模型结构,但是做了一些小修改:将视觉-语言连接器由线性投影修改成一个两层的mlp(前期文章的NVLM-D也是两层的mlp链接视觉-语言模型);将224分辨率的视觉编码器修改为336pix的视觉编码器(带有MLP投影的CLIP-ViT-L-336px)。
ViT作者飞机上也要读的改进版Transformer论文,花2个小时详细批注解读分享出来
ViT核心作者Lucas Beyer,长文分析了一篇改进Transformer架构的论文,引起推荐围观。 他前不久从谷歌跳槽到OpenAI,这次是在飞机上阅读论文并写下了分析。 这篇论文被他简写为DiffTranformer,不过不是Sora底层架构的那个Diffusion Transformer,而是不久前来自微软的Differencial Transformer。
2024年AI编程有多强?谷歌工程主管揭秘残酷真相
2024年,AI编程已然渗透了各行各业,影响着软件的整个生命周期。 那么问题来了,AI coding用过都说好,但我们平时用的软件咋感觉没啥进步呢? 近日,Addy Osmani,谷歌的工程主管,同时也是一位亚马逊畅销书作家,为我们揭示了AI辅助编码在一线开发中的真实情况。
AAAI 2025 | 用于韦伯区位问题的去奇异性次梯度方法
暨南大学通用机器学习课题组由网络空间安全学院和信息科学技术学院的多名青年教师、博士生、硕士生和本科生共同组成,研究方向包括通用逼近理论、分布外泛化、非凸优化、稀疏学习、深度学习框架的基础模块开发、优化器开发、隐私保护与增强等。 自 2024 年 4 月至 12 月,课题组作为第一单位已获得所有 CCF A 机器学习国际顶级会议 ICML(2 篇)、NeurIPS 和人工智能国际顶级会议 IJCAI、AAAI 录用论文共 5 篇。 本文第一作者为课题组负责人赖兆荣,通讯作者为博士生李程,其他合作作者为课题组教师吴小天、方良达、陈子良。
港科大开源VideoVAE+,视频重建质量全面超越最新模型
港科大团队重磅开源 VideoVAE ,提出了一种强大的跨模态的视频变分自编码器(Video VAE),通过提出新的时空分离的压缩机制和创新性引入文本指导,实现了对大幅运动视频的高效压缩与精准重建,同时保持很好的时间一致性和运动恢复。 论文地址:: 模型大幅超过最新模型包括英伟达在 2024.11 发布的 Cosmos Tokenizer,同时也超越一众方法包括腾讯在 2024.12 发布的 Hunyuan Video,CogvideoX VAE,WF-VAE,CV-VAE,Open Sora,Open Sora Plan, Easy Animate-VAE。 什么是 VideoVAE 模型VideoVAE 模型(Video Variational Autoencoder)是一种基于深度学习的生成模型,用于对视频数据进行压缩、重建和生成,讲视频从 RGB 像素空间投影到低维度的 latent 空间。
稚晖君开源百万机器人真机数据集
年末大礼包,稚晖君他又双叒来开源了! 百万真机数据集开源项目AgiBot World,也是全球首个基于全域真实场景、全能硬件平台、全程质量把控的大规模机器人数据集。 该项目由稚晖君具身智能创业项目智元机器人,携手上海AI Lab、国家地方共建人形机器人创新中心以及上海库帕思联合发布。