模型

中国AI太强,Meta工程师吓疯?自曝疯狂熬夜复制DeepSeek,天价高管心虚了

今天,Meta员工在匿名社区TeamBlind上的一个帖子,在业内被传疯了。 DeepSeek,真实地给了美国人亿点点「震撼」。 DeepSeek R1是世界上首个与OpenAI o1比肩的AI模型,而且与o1不同, R1还是开源模型「Open Source Model」,比OpenAI还Open!更有人曝料,DeepSeek还只是个「副项目」,主业根本不是搞大模型!

阿里通义实验室提出AnyStory:开启个性化文本到图像生成的新篇章!

在这个数字化时代,生成式AI技术正以前所未有的速度改变着我们的创作方式。 近期,阿里通义实验室发表了一篇题为《AnyStory: Towards Unified Single and Multi-Subject Personalization in Text-to-Image Generation》的论文,该论文提出了一种创新的框架,旨在通过统一的路径实现单个及多个主体的个性化文本到图像生成,为故事可视化、艺术创作乃至更多领域带来了革命性的突破。 论文中深入探讨了当前文本到图像生成技术面临的挑战,如主体一致性、细节保留以及多主体个性化等方面的不足。

2025智能体元年!斯坦福科学家8000字讲清所有要点

许多人认为「智能体」是AI发展的终极目标。 智能体在处理复杂任务时,展现出了巨大潜力。 从协助搭建网站、管理客户账户,到开展市场调研、自动录入数据,智能体的应用场景日益广泛。

两分钟完成论文调研!ByteDance Research推出论文检索智能体PaSa,远超主流检索工具

2025 被称为 Agent 元年,新年伊始,ByteDance Research 就推出了一款基于强化学习的智能体应用:论文检索智能体。 它可以模仿人类研究者调用搜索引擎、看论文、查参考文献。 繁琐冗长的论文调研,现在,只需要两分钟。

小模型也能玩转RAG!性能仅降1%,存储省75%,边缘设备轻松跑

检索增强生成(RAG)虽好,但一直面临着资源消耗大、部署复杂等技术壁垒。 近日,香港大学黄超教授团队提出MiniRAG,成功将RAG技术的应用门槛降至1.5B参数规模,实现了算力需求的大幅降低。 这一突破性成果不仅为边缘计算设备注入新活力,更开启了基于小模型轻量级RAG的探索。

推理模型规划任务成功率从5%到95%,DeepMind遗传算法新研究火了

瞄准推理时扩展(Inference-time scaling),DeepMind新的进化搜索策略火了! 所提出的“Mind Evolution”(思维进化),能够优化大语言模型(LLMs)在规划和推理中的响应。 由于提升显著,Reddit/𝕏一时间出现了大量讨论:由于结合了遗传算法,使用Mind Evolution能让Gemini 1.5 Flash任务成功率从原本的5%左右,一下提升90个百分点。

OpenAI微软关系现裂痕,奥特曼紧急公关,导火索竟是DeepMind联创

一个5000亿美元的大动作,让微软不再是OpenAI独家云计算供应商了。 在OpenAI与甲骨文牵手组建数据中心那一刻起,网友们纷纷看向这个计划之外的微软:他们两个之间的关系约莫是出现裂痕了。 结果奥特曼紧急公关,不是你听我解释,这是形势所迫,为算力折腰啊啊。

字节清华开源力作!UI-TARS原生AI智能体,人人都能拥有“智能助手”

年底国内各个AI玩家杀疯了,前两天完全开源的Deepseek R1 震撼整个AI业界,今天字节又联合清华整活,一个强大的原生的开源 AI Agent UI-TARS震撼上线看了UI-TARS的论文,我给大家划划重点【纯视觉感知】:告别文本依赖,像人眼一样“看”懂GUI! 传统的GUI自动化方案,很多都依赖于解析网页代码(HTML)或者软件的API接口。 但这种方式有两个致命缺陷:一是平台限制,不同平台、不同软件的底层代码和API都不一样,导致自动化方案难以通用;二是容易失效,一旦网页或软件界面改版,代码或API接口变动,自动化脚本就可能直接崩溃。

英矽智能在Nature 子刊发表最新研究,利用量子-经典混合模型设计新型KRAS抑制剂

近期,英矽智能与加拿大多伦多大学共同主导的一项研究首次展示量子计算和人工智能在变革药物发现流程方面的潜力。 在这项研究中,科学家将量子计算模型与经典计算模型和生成式人工智能相结合,通过对庞大数据集的训练、生成和筛选,探索更广泛的化学可能性,发现靶向“不可成药”癌症驱动蛋白KRAS 的新颖分子。 这项研究也得到了圣裘德儿童研究医院等多方研究机构的支持,相关研究成果于1月22日发表于Nature Biotechnology。

刚刚,OpenAI发布o1模型新突破,推理时间增强对抗鲁棒性

今天凌晨2点,OpenAI发布了一项新技术研究,通过增加推理时间、算力资源来大幅度提升模型的对抗鲁棒性。 与传统的对抗训练样本方法不同的是,OpenAI提出的新方法不需要对大模型进行专门的对抗训练,也不需要提前了解攻击的具体形式。 只需要通过增加推理时间和算力资源,模型就可以更充分地利用其推理能力表现出更强的鲁棒性。

「AI没有墙超预期」Anthropic CEO达沃斯惊人预测:2027年实现超人类水平的AI

人类水平的AI或超越所有人类的AI将在两三年内到来,从内部来看,AI的发展没有遇到墙反而超预期                                                                                                                                                              --Anthropic CEO Dario Amodei华尔街日报在达沃斯世界经济论坛对 Anthropic 首席执行官 Dario Amodei 的最新采访。 采访内容主要围绕 Anthropic 的 AI 模型 Claude 的未来发展方向、AI 技术的进步速度及其对社会和劳动力市场的影响、以及 Anthropic 在行业竞争和政策监管方面的策略以下结合采访内容给大家划个重点Claude 的未来发展方向网络访问 (Web Access): Anthropic 正在积极开发 Claude 的网络访问功能,预计很快推出。 尽管企业用户是 Anthropic 的重点,但他们也认识到网络访问对于消费者和高级用户的重要性。

20K合成数据就能让大模型能力飙升!还能实现模型自我迭代,上海AI Lab数据合成新范式

仅使用20K合成数据,就能让Qwen模型能力飙升——模型主观对话能力显著提升,还能实现模型自我迭代。 最近,来自上海AI Lab的研究团队针对合成数据技术展开研究,提出了SFT数据合成引擎Condor,通过世界知识树(World Knowledge Tree)和自我反思(Self-Reflection)机制,探索合成海量高质量SFT数据的方案。 结果,他们还意外发现,在增大合成数据量的情况下,模型性能持续提升。

Anthropic CEO惊人预警:27年AI超越人类!Claude今年更新全剧透

失踪人口终于回归了! 在互联网消失一段时间后,Anthropic首席执行官Dario Amodei一上来就接受了WSJ、CNBC两家采访,连曝AI大瓜。 他坚定地认为,「2027年之前,AI完全可以超越人类智能!

最壕DeepSeek玩家8台Mac跑R1,10万+元凑496GB显存才能跑4bit量化版

DeepSeek-R1,正在接受全球网友真金白银的检验。 花30秒用manim代码制作解释勾股定理的动画,一次完成无错误。 为了玩上这样的模型,有人花上10多万元,组7台M4 Pro Mac mini 1台M4 Max Macbook Pro的家用超算。

使用 SHAP 使机器学习模型变的可解释!!!

大家好,我是小寒SHAP 是一种用于解释机器学习模型预测结果的方法,它基于博弈论中的 Shapley值。 旨在为每个特征分配一个“贡献值”,表明该特征对模型预测结果的影响有多大。 SHAP 为复杂的黑箱模型(如深度学习模型、集成方法等)提供了一种统一且理论上有保障的解释框架,帮助我们理解模型的决策过程,提高模型的透明度和可信度。

UC伯克利等提出具身智能「动作Tokenizer」,效率飙升5倍!

来自π,伯克利和斯坦福的研究者近期提出了FAST,一种为VLA模型设计的高效动作Tokenizer。 FAST旨在解决传统动作Tokenization方法在处理精细任务时面临的挑战,为VLA模型在更复杂、高频的机器人控制任务带来了显著改进。 将FAST与π0 VLA结合,在1万小时的机器人数据上对π0-FAST进行训练,效果与最先进的扩散VLA相当,训练时间最多缩短5倍。

截胡OpenAI!清华复旦等抢先开源智能体框架Eko,一句话打造「虚拟员工」

OpenAI的首席执行官Sam Altman最近宣布,2025年将推出「虚拟员工计划」,代号Operator,AI智能体能够自主执行任务,如写代码、预订旅行等,成为企业中的「数字同事」。 抢在OpenAI发布Operator之前,清华、复旦和斯坦福的研究者联合提出了名为Eko的 Agent开发框架,开发者可以通过简洁的代码和自然语言,快速构建可用于生产的「虚拟员工」。 AI智能体能够接管用户的电脑和浏览器,代替人类完成各种任务,为工作流程提供自动化支持。

41%博士后逃生学术界,顶刊PNAS揭残酷真相!名校光环背后曝职业危机

去年,随着LLM产品化和工程化的发展,工业界的研究岗迅速缩减,许多AI博士面临巨大的就业压力,纷纷表示后悔读博。 工业界机会稀少,学术界同样问题重重。 为此,有的博士生甚至转行去当了主播。