模型
ScaleOT框架亮相AAAI 2025:提升隐私保护50%,降算力成本90%
近日,在全球人工智能顶级学术会议AAAI2025期间,蚂蚁数科、浙江大学、利物浦大学和华东师范大学联合团队提出创新的跨域微调(offsite-tuning)框架——ScaleOT。 该框架能在模型性能无损前提下,将隐私保护效果提升50%,与知识蒸馏技术相比,算力消耗显著降低90%,为百亿级参数模型的跨域微调提供高效轻量化方案,论文因创新性入选AAAI的oral论文(本届大会近13000篇投稿,口头报告比例仅4.6%)。 跨域微调是目前业内保护模型产权与数据隐私的主流方案,通过有损压缩将大模型转换为仿真器,数据持有方基于其训练适配器并返回给大模型完成调优,数据和模型均未出域,可保护双方隐私,但存在局限性:一是“均匀抽积木”式处理易致模型关键层缺失,使性能显著下降;二是用蒸馏技术弥补性能损失,计算成本高;且现有方法隐私保护缺乏灵活性。
谷歌发布最强「科研辅助神器」!能帮你提新idea,三大真实场景实证
在科学探索的过程中,研究人员需要对以往发表的文献进行观察总结,提出一些新颖、可行的研究方向,最后通过全面的实验进行idea验证。 科研人员需要对探索的宽度和深度进行平衡,由于精力有限,不能探索过多的研究方向,同时还要保证对目标主题的研究深度。 最近,谷歌、斯坦福大学等机构的研究人员开发了一个多智能体、基于Gemini 2.0的AI协同科研(AI co-scientist)系统,具备跨复杂主题的综合能力和进行长期规划、推理的能力,除了传统的文献综述、总结功能之外,还可以辅助科研人员提出新的、原创知识,或是基于先前的成果制定研究假设(hypotheses)和计划(proposal)。
DeepSeek会说话了!只要2行代码,这家公司让任意大模型秒开口
就在最近,生成式AI行业,诞生了一个新赛道——所有文本模型,可以立刻秒变多模态了! 如今的大模型混战局势,情况已经很明显,去一味卷大模型供应商,投入产出比已经不高。 此时,这个产品的另辟蹊径,就格外显得独树一帜——他们要做的,是让任意大模型开口说话,甚至是DeepSeek!
何恺明ResNet级神作,分形生成模型计算效率狂飙4000倍!清华校友一作
图像生成建模全新范式来了。 你是否曾凝视过雪花的精致对称,或惊叹于树枝的无穷分支? 这些都是大自然中的「分形」。
多模态大模型对齐新范式,10个评估维度全面提升,快手&中科院&南大打破瓶颈
尽管多模态大语言模型(MLLMs)取得了显著的进展,但现有的先进模型仍然缺乏与人类偏好的充分对齐。 这一差距的存在主要是因为现有的对齐研究多集中于某些特定领域(例如减少幻觉问题),是否与人类偏好对齐可以全面提升MLLM的各种能力仍是一个未知数。 快手,中科院,南大合作从三个层面入手推动MLLM alignment的发展,包括数据集,奖励模型以及训练算法,最终的alignment pipeline使得不同基础模型在10个评估维度,27个benchmark上都取得了一致的性能增益,比较突出的是,基于本文提出的数据集和对齐算法对LLaVA-ov-7B模型进行微调后, conversational能力平均提升了19.5%,安全性平均提升了60%。
前端程序员请注意!首个截图就能生成现代前端代码的AI来了 | 已开源
现在截图生成代码,已经来到了一个新高度——⾸个⾯向现代前端代码⽣成的多模态⼤模型解决⽅案,来了! 而且是开源的那种。 (注:现代前端代码开发具有组件化、状态管理和数据驱动渲染、开发规范严格以及动态交互性强等特点。
解锁AI机器人新时代:LeRobot如何让未来触手可及?
想象一下,一个普通人也能轻松打造属于自己的智能机器人,像玩乐高一样简单有趣? 这不是科幻电影的场景,而是Hugging Face最新开源项目LeRobot带来的现实革命。 作为AI领域的先锋,Hugging Face继Transformers席卷自然语言处理(NLP)领域后,又将目光投向了机器人技术,推出了LeRobot——一个旨在让AI机器人开发变得更普惠、更高效的开源平台。
Quora Poe推出自定义 AI 应用功能,用户可轻松创建个性化应用
Quora 最近在其 AI 平台 Poe 上推出了一项新功能,让用户能够构建自定义的 AI 应用程序。 这个名为 “Poe Apps” 的功能,允许用户在 Poe 平台上通过简单描述来创建视觉界面,用户可以选择使用不同的 AI 模型来实现他们的应用设想。 用户在新推出的应用创建工具中,只需描述他们想要创建的应用,包括指定使用的 AI 模型,比如 OpenAI 的 o3-mini 或 Google 的视频生成模型 Veo2。
DeepSeek-R2曝5月前上线!第三弹DeepGEMM 300行代码暴击专家优化内核
第三天,DeepSeek发布了DeepGEMM。 这是一个支持稠密和MoE模型的FP8 GEMM(通用矩阵乘法)计算库,可为V3/R1的训练和推理提供强大支持。 仅用300行代码,DeepGEMM开源库就能超越专家精心调优的矩阵计算内核,为AI训练和推理带来史诗级的性能提升!
Anthropic称Claude 3.7 Sonnet训练成本数千万美元,远低于部分竞品
近日,沃顿商学院教授伊桑·莫里克透露了Anthropic公司相关信息。 他表示Anthropic公关部门澄清,旗舰AI模型Claude3.7Sonnet的训练成本为“数千万美元”,且使用的计算能力不到10^26FLOP。 他还提到Anthropic告知他Sonnet3.7不会被视为10^26FLOP模型,不过未来模型规模会大得多。
香港科技大学提出YuE:Suno级别开源音乐生成模型,支持中文!
YuE是港科大提出的一个开源的音乐生成基础模型,专为音乐生成而设计,专门用于将歌词转换成完整的歌曲(lyrics2song)。 它可以生成一首完整的歌曲,时长几分钟,包括朗朗上口的声乐曲目和伴奏曲目。 YuE 能够模拟多种流派/语言/声乐技巧。
中文比R1丝滑、玩宝可梦还贼溜?全球首个混合推理模型Claude 3.7 Sonnet太惊艳,网友直呼“孤独求败”
当地时间 2 月 25 日,Anthropic 正式发布了 Claude 3.7 Sonnet,“这是迄今为止我们最智能的模型,也是市场上首个混合推理模型。 ”Anthropic 官方表示。 简单来说,Claude 3.7 Sonnet 既能提供近乎即时的响应(标准模式,standard),也可以向用户直观展示其长时间的逐步思考过程(扩展思考模式,extended thinking)。
阿里全面开源文生视频模型万相2.1:14B和1.3B双版本上线
今日,阿里巴巴官方宣布全面开源旗下视频生成模型万相2.1模型,14B和1.3B双版本上线。 其中,专业版14B,高性能,提供业界顶尖的表现力可满足对视频质量有极高要求的场景;而极速版1.3B,适合消费级显卡,8.2GB显存即可生成480P高质量视频,适用于二次模型开发和学术研究。 据官方介绍,本次开源的 Wan2.1在处理复杂运动、还原真实物理规律、提升影视质感及优化指令遵循方面展现出显著优势,能够满足创作者、开发者和企业用户的多样化需求。
开源的风吹到视频生成:阿里开源登顶VBench的万相大模型,一手实测来了!
当很多 AI 公司还就是否该走开源路线而感到左右为难时,阿里的技术团队又开源了一个新的模型 —— 万相(Wan)视频生成大模型(包括全部推理代码和权重,最宽松的开源协议)。 经常玩视频生成模型的同学应该知道,当前的很多模型仍然面临多方面挑战,比如难以还原复杂的人物动作,处理不好物体交互时的物理变化,遇到长文本指令就「选择性遵循」等。 如果三个方面都做得比较好,那模型厂商多半是不舍得开源的。
苹果史上最大投资!4年5000亿美金重注AI+芯片,特朗普专门感谢
苹果CEO库克,发文纪念乔布斯诞辰70周年:乔布斯不仅看到了世界的现状,更看到了它的无限可能。 他的远见不断激励我们突破界限,创造未来。 今天,在他70岁诞辰之际,我们缅怀他的传承,并致敬他永恒的影响力。
Claude 3.7狂飙物理引擎碾压Grok 3,高考数学题被秒成渣!疯狂融资35亿Transformer女神加盟
除了编程界,Claude 3.7 Sonnet的出世,好像并没有在AI圈掀起巨大的风浪。 与DeepSeek R1、o3-mini推理模型不同的是,它是世界首个混合推理模型,即「原生」推理。 正如Anthropic介绍,「一个模型,两种思考方式」。
幻方量化回应DeepSeek-R2模型提前发布:以官方消息为准
据券商中国消息,针对“DeepSeek新一代AI模型R2提前发布”的传闻,幻方量化相关人士作出回应,表示一切以官方消息为准。 据悉,幻方量化于2023年7月17日成立深度求索AI公司,并在今年1月成功发布了DeepSeek-R1模型。 而近日,路透社援引三位知情人士的消息称,DeepSeek正在加速推进R2模型的发布计划,原定于5月发布的计划现正努力提前。
DeepSeek开放平台API充值服务已正式恢复
近日,DeepSeek API开放平台发布消息,宣布其API充值服务已正式恢复。 此前,由于服务器资源紧张,DeepSeek于2月6日暂停了API服务的充值功能。 此次恢复充值的同时,DeepSeek也对部分模型调用价格进行了调整。