模型
超越CoT!微软剑桥中科院提出MVoT,直接可视化多模态推理过程
大模型也学会了「空间想象力」? 还可以自己解释自己? 在大语言模型(LLMs)和多模态大语言模型(MLLMs)中,思维链(CoT)在复杂推理方面非常有效。
山姆·奥特曼揭秘:Deepseek R1性价比之选!
在当今的人工智能领域,大模型之间的竞争日益激烈。 Deepseek 推出的 R1 模型引起了广泛关注。 山姆·奥特曼评价道:“Deepseek 的 R1 是一个令人印象深刻的模型,尤其是在他们能够以这个价格提供的东西方面。
零样本 | ZAPS:零样本扩散采样,3倍加速逆问题重建,重塑高效影像修复新范式
一、 一眼概览ZAPS(Zero-Shot Approximate Posterior Sampling)是一种针对扩散模型(Diffusion Models, DMs)在逆问题(Inverse Problems)中的高效采样方法。 它利用零样本学习(Zero-Shot Learning)进行自适应超参数优化,使得扩散采样步骤固定,同时提高重建质量并减少推理时间。 二、核心问题当前的扩散模型在解决逆问题(如去模糊、修复、超分辨率)时,存在以下挑战:需要大量的采样步骤,导致推理速度慢;现有的噪声调度策略(Noise Schedule)在逆问题场景下难以直接适用;传统方法使用手动调整的对数似然权重(Log-Likelihood Weights),不够鲁棒,容易导致次优解。
图解系列|DeepSeek-R1的出众推理能力因何而来?
图片DeepSeek-R1 代表了人工智能发展的又一重要里程碑。 对于机器学习领域的研究人员与开发者群体而言,这次发布之所以备受关注,主要有以下两点:首先,这是一款开源权重的模型,并且提供了更小的、经过蒸馏的版本;其次,它公布并深入探讨了训练方法,该方法能够复现类似于 OpenAI O1 的推理模型。 本文将带您了解这一模型的构建过程。
李飞飞、DeepSeek为何偏爱这个国产模型?
斯坦福李飞飞团队的一篇论文,近来在AI圈子掀起了一场飓风。 他们仅用1000个样本,在16块H100上监督微调26分钟,训出的新模型s1-32B,竟取得了和OpenAI o1、DeepSeek R1等尖端推理模型相当的数学和编码能力! 团队也再次证明了测试时Scaling的威力。
历史分水岭:DeepSeek GitHub星数超越OpenAI!大佬揭秘仅用450美元训推理模型
就在刚刚,历史性的一刻出现了。 DeepSeek项目在GitHub平台上的Star数,已经超越了OpenAI。 热度最高的DeepSeek-V3,Star数如今已达7.7万。
免费功能卷翻付费版ChatGPT,欧洲AI新贵叫板OpenAI
“欧洲OpenAI”Mistral AI有新动作了! Le Chat(法语“猫”)全新升级,官方自称它是“您生活和工作的终极AI助手”。 从今天开始,Le Chat上线移动端,iOS和Android都支持,不久也将对企业私有基础设施开放。
全球顶级AI科学家许主洪加盟阿里!IEEE Fellow,五万被引论文数,曾任Salesforce集团副总裁
AI的新进展频频,人才动态也愈加重磅。 新年第一则大牛人事动向,引发业内关注。 许主洪,IEEE Fellow,新加坡管理大学终身教授,被曝加盟阿里。
被DeepSeek带火的知识蒸馏,开山之作曾被NeurIPS拒收,Hinton坐镇都没用
DeepSeek带火知识蒸馏,原作者现身爆料:原来一开始就不受待见。 称得上是“蒸馏圣经”、由Hinton、Oriol Vinyals、Jeff Dean三位大佬合写的《Distilling the Knowledge in a Neural Network》,当年被NeurIPS 2014拒收。 如何评价这篇论文的含金量?
《麻省理工科技评论》点评中国AI“四剑客”,每家都媲美DeepSeek
春节期间,DeepSeek 一跃成为全球瞩目的焦点。 它以仅约十分之一的超低训练成本,成功推出了性能与OpenAI o1近乎相当的开源模型,对全球科技领域带来巨大冲击,先后引发美国科技股的大幅下跌,以及硅谷科技巨头和各国政要的纷纷回应,如今全球各大芯片厂商和智算云服务厂商更是积极响应、跟进适配。 半个月来,DeepSeek相关话题热度居高不下,热搜频频,已成为全球科技、经济乃至政治领域的重要话题。
英伟达联手MIT清北发布SANA 1.5!线性扩散Transformer再刷文生图新SOTA
近年来,文本生成图像的技术不断突破,但随着模型规模的扩大,计算成本也随之急剧上升。 为此,英伟达联合MIT、清华、北大等机构的研究人员提出了一种高效可扩展的线性扩散Transformer——SANA,在大幅降低计算需求的情况下,还能保持有竞争力的性能。 SANA1.5在此基础上,聚焦了两个关键问题:线性扩散Transformer的可扩展性如何?
DeepSeek R1 集成难题完美解决:Deepseek4j 已开源
一、为什么需要 deepseek4j? 1.1 现有框架的局限性思维链内容丢失:R1 最核心的推理过程完全被忽略响应模式不兼容:无法处理"思考在前、结论在后"的输出模式参数限制:temperature、top_p 等关键参数设置失效流式处理不完善:用户体验欠佳虽然笔者上篇博客介绍了如何使用 WebFlux 直接调用 DeepSeek API,但这种方式存在一些问题:开发成本高:直接调用 API 或改造现有框架需要处理大量细节,包括请求构建、响应解析、错误处理等。 一不做二不休,为了彻底解决这些问题,笔者基于 OpenAI4J[1] 项目的优秀架构,打造了一个专门面向 DeepSeek 的开箱即用方案 DeepSeek4J[2]增强支持 DeepSeek 独有的思维链和账单特性增加 Project Reactor 的全面响应式支持提供集成 Spring Boot Starter,提供自动配置 二、核心特性 ✨ 完整保留思维链能力、账单🚀 响应式流式处理🛠 简单优雅的 API 设计📦 开箱即用的 Spring Boot 集成,同时支持 2.x / 3.x💡 内置调试页面🔍 详细的请求响应日志🔧 灵活的代理配置⚡️ 响应式编程支持 三、快速开始 3.1 添加依赖复制3.2 配置参数复制3.3 基础使用复制3.4 进阶配置复制
未来教室的变革:大语言模型LLM会取代老师吗?揭秘教育新纪元
大语言模型(LLM)的发展是近年来人工智能领域的重要突破,其背后是深度学习、自然语言处理等技术的快速进步。 从早期的简单问答系统到现在能够理解和生成复杂文本的智能模型,大语言模型已经广泛应用于各个领域,包括客服机器人、智能搜索引擎、自动化写作等。 随着技术的进步,人们开始探讨这样一个问题:大语言模型是否将在未来取代老师的角色?
突发!o3-mini思维链公开,却被曝光全是「作假」,奥特曼现身解释网友炸锅
OpenAI,真的被DeepSeek逼急了! 活久见,就在刚刚,OpenAI把o3-mini的「思维链」公开了。 比如问「怎么今天不是星期五啊😅」?
DeepSeek开源Janus-Pro-7B:多模态AI模型性能超越DALL-E 3 和 Stable Diffusion 3!
中国人工智能公司 DeepSeek 的 R1“推理”人工智能已经引起了广泛关注,位居应用商店排行榜首位并改变了股市。 随后DeepSeek又宣布开源新一代多模态模型Janus-Pro-7B,该模型在图像生成、视觉问答等任务中全面超越 OpenAI 的 DALL-E 3 和 Stable Diffusion 3,并以“理解-生成双路径”架构和极简部署方案引发AI社区轰动。 性能表现:小模型吊打行业巨头Janus-Pro-7B虽仅有70亿参数(约为GPT-4的1/25),却在关键测试中碾压对手:文生图质量:在GenEval测试中以80%准确率击败DALL-E 3(67%)和Stable Diffusion 3(74%)复杂指令理解:在DPG-Bench测试中达84.19%准确率,能精准生成如“山脚下有蓝色湖泊的雪山”等复杂场景多模态问答:视觉问答准确率超越GPT-4V,MMBench测试得分79.2分接近专业分析模型技术突破:像“双面神”分工协作传统模型让同一套视觉编码器既理解图片又生成图片,如同让厨师同时设计菜单和炒菜。
DeepSeek开源多模态模型Janus-Pro的ComfyUI使用教程,文中附模型和工作流下载
今天给大家介绍DeepSeek发布的Janus-Pro模型的ComfyUI实践教程,包含ComfyUI安装,模型下载,工作流下载等,欢迎大家一起交流学习,也欢迎添加公众号小助手加入读者交流群,一起探索AIGC好玩的应用。 Janus Pro 是 DeepSeek 于 2025年1月27日开源的多模态模型,同时具有图像理解和生成的能力。
817样本激发7倍推理性能:上交大「少即是多」定律挑战RL Scaling范式
在追求人工智能极限的道路上,"更大即更强" 似乎已成为共识。 特别是在数学推理这一被视为 AI 终极挑战的领域,业界普遍认为需要海量数据和复杂的强化学习才能获得突破。 然而,来自上海交通大学的最新研究却给出了一个令人震惊的答案:仅需 817 条精心设计的样本,就能让模型在数学竞赛级别的题目上超越当前许多最先进模型。
不到140块!李飞飞团队超低成本复刻DeepSeek R1推理!16张H100只训练了26分钟,与R1训练方法不同!
编辑 | 伊风出品 | 51CTO技术栈(微信号:blog51cto)太魔鬼了! 上周李飞飞团队发了篇新论文,再次降低了复刻o1能力的成本。 低到什么程度呢?