面壁智能
面壁智能发布 MiniCPM-o 2.6 全模态模型,号称“端侧 GPT-4o”
官方表示,其总参数量 8B,视觉、语音和多模态流式能力达到了 GPT-4o-202405 级别,是开源社区中模态支持最丰富、性能最佳的模型之一。
端侧版GPT-4o问世,面壁小钢炮实现端到端、全模态实时对话
只用 8B 参数,性能接近 OpenAI GPT-4o。
大模型隐藏玩家上桌:DeepSeek 向左,面壁向右
作者丨朱可轩编辑丨陈彩娴大模型赛跑两年后,玩家已逐步分化为三种趋势:一类玩家仍追随 OpenAI 的脚步卷大参数基座模型,另外一类烧不起钱的玩家转头拥抱应用端,而第三类则自始至终都在摸索如何更高效打造出性能更优的模型。 目前,第一类卷向大参数的玩家也都在寻找高效解决方案,连 OpenAI 此前发布 GPT-4o mini 切入小模型市场,Meta Llama 3.1-8B、微软 Phi-3-vision 和 Phi-4 14B 、谷歌 Gemma 2 以及阿里 Qwen 2.5 等一系列小模型也都是头部玩家在做的布局。 算力存在上限已是不争的事实,而且也并非参数越大就意味着效果一定能达到预期,更何况,如若如果每增长一倍参数规模,效果能力却并未呈一倍增长,大模型发展起来会很慢:OpenAI 能用百千亿达到 GPT-4 的水平,其他家则可能需要投入更多资源,如此一来要追赶 GPT-5 会更难,因为在 OpenAI 的基础上再加码更多算力、参数的可能性不大,这对于大多数无法如同 OpenAI 一般大把烧钱的玩家而言并非理智选择。
让「GPT-4V」跑在手机上,这家中国大模型公司做到了
真实世界的视觉信息是流动的,而在处理流动性的视觉信息上,端侧视频理解具有天然优势,手机、PC、AR、机器人、智能座驾等端侧设备自带的摄像头,具有天然的多模态输入能力。 与云端相比,端侧离用户更近,链路更短,效率更高,同时具有更强的信息安全优势。 今日,面壁正式发布了 MiniCPM-V 2.6,在端侧性能实现全面对标 GPT-4V——据介绍,MiniCPM-V 2.6 首次在端侧实现单图、多图、视频理解等多模态核心能力全面超越GPT-4V,三项能力均取得 20B 以下 SOTA 成绩,单图理解越级比肩 Gemini 1.5 Pro 和 GPT-4o mini 。
可信度超越GPT-4V,清华&面壁揭秘「小钢炮」模型背后的高效对齐技术
AIxiv专栏是机器之心发布学术、技术内容的栏目。过去数年,机器之心AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。如果您有优秀的工作想要分享,欢迎投稿或者联系报道。投稿邮箱:[email protected];[email protected]本文主要作者来自 MiniCPM-V 团队,其中第一作者余天予是清华大学 2021 级硕士研究生,他的主要研究方向是通用多模态基础大模型构建及其对齐方法。近期,由清华大学自然语言处理实验室
国产端侧小模型超越 GPT-4V,「多模态」能力飞升
在刚刚过去的机器人学术顶会 ICRA 2024 上,「具身智能」成为热议,其中围绕具身智能的一个普遍疑问是:若将 AI 大模型应用到消费级机器人领域,首先是模型适配终端,还是终端适配模型? 过去一年,由于 6B、7B 等小模型的成果井喷,以及 MoE 训练技术的越发成熟,将模型跑在手机、学习机、平板电脑、机器人甚至汽车等等终端应用上的想象力开始变大,无论算法层还是硬件层都「蠢蠢欲动」。 诚然,这已经成为一个明朗的行业方向,但在系统整合上却要面临不同话语体系之间的博弈。
面壁新模型:早于Llama3、比肩 Llama3、推理超越 Llama3!
图注:面壁Eurux-8x22B 模型在 LeetCode 和 TheoremQA这两个具有挑战性的基准测试中,刷新开源大模型推理性能 SOTA。 图注:面壁Eurux-8x22B 模型综合性能比肩 LlaMa3-70B,超越开源模型 WizardLM-2-8x22b, Mistral-8x22b-Instruct,DeepSeek-67b,以及闭源模型 GPT-3.5-turbo。 Eurux-8x22B 由 Mistral-8x22B对齐而来。
被低估的面壁:打造出不输 OpenAI 的 Scaling Law 曲线
大约 1 个月前,马斯克所创办的 xAI 团队宣布开源 Grok-1——一个参数量为 3140 亿的 MoE 大模型。 从参数量来看,Grok-1 超越了 70B 的 LLaMA 2,是当前开源模型中最大的一个,被调侃为「庞然大物」。 然而,有研究人员测试却发现,参数规模量如此巨大的 Grok-1 ,效果竟然只与 Mistral AI 的 8x7B MoE 模型相当。
企业级AI Agent如何落地汽车行业,这是国内首份系统阐述白皮书
一年多来,大模型技术的进步日新月异,模型能力的上限不断抬高。但从产业变革的角度看,大模型的落地或许刚刚处于开端阶段。如何才能发挥出大模型的巨大潜力,并推动生产力更快更好地变革,仍然是一个充满探索空间的课题。每个行业都关心一个问题:将大模型应用到业务层面的最优方法论是什么?当我们谈及这个问题,自然无法避开「AI Agent」(智能体)。当 AI 从学术前沿跨越到实际应用,大模型驱动的智能体正成为推动革新的核心动力。连比尔盖茨也预言,AI Agent 将是人工智能的未来。到那时,AI Agent 将具备规划、执行、感知
中文OCR超越GPT-4V,参数量仅2B,面壁小钢炮拿出了第二弹
OpenAI后,大模型新增长曲线来了。大语言模型的效率,正在被这家「清华系」创业公司发展到新高度。从 ChatGPT 到 Sora,生成式 AI 技术遵从《苦涩的教训》、Scaling Law 和 Emerging properties 的预言一路走来,让我们已经看到了 AGI 的冰山一角,但技术的发展的方向还不尽于此。最近一段时间,科技公司大力投入生成式 AI,一系列新的概念正在出现:手机厂商认为「AI 手机」正在引领手机形态的第三次转变;PC 厂商认为「AI PC」可能会改变个人电脑的形态;而对于更多科技公司来
向完全自主性更进一步,清华、港大全新跨任务自我进化策略让智能体学会「以经验为鉴」
「以史为鉴,可以知兴替。」 人类的进步史,可以看作是一个不断吸取过去经验、不断推进能力边界的自我演化过程。在这个过程中,我们吸取过去失败的教训以纠正错误,借鉴成功的经验以提升效率和效果。这种自我进化的过程在我们的生活中无所不在:从如何总结经验以更好地解决工作中的问题,到如何利用规律更精确地预测天气,我们都在不断地从过去的经验中学习和进化。成功从过去的经验中提取知识并将其应用于未来的挑战,这是人类进化之路上重要的里程碑。那么在人工智能时代,AI 智能体是否也可以做到同样的事情呢?近年来,GPT 和 LLaMA 等语言
专访面壁曾国洋:踩过 1000 次大模型的坑后 ,造一个性能小钢炮
2月1日,刚成立一年的面壁智能发布了两个在海内外大模型领域「炸裂级」的存在——面壁 MiniCPM 2B 旗舰端侧大模型与面壁OmniLMM多模态大模型。 MiniCPM 2B 有着当之无愧的「小钢炮」称号,其炸裂的点在于,从规模大小和性能来看,仅用2B 规模和1T tokens精选数据,便已在多项主流评测榜单、中英文平均成绩中超越被称为“欧洲最佳大模型”的Mistral-7B。 在与其他同等规模大模型的对比中,面壁MiniCPM表现依旧领先,大幅超越了 Llama2-7B, Mistral7B,Gemini Nano,Qwen-1.8B等一众模型,甚至还能越级比肩 Llama2-13B、Falcon 40B和Cohere 54B此类比自己庞大数十倍规模的模型。
2B参数性能超Mistral-7B:面壁智能多模态端侧模型开源
千元机也能本地运行。在大模型不断向着大体量方向前进的同时,最近一段时间,人们在优化和部署方面也取得了成果。2 月 1 日,面壁智能联合清华 NLP 实验室在北京正式发布了旗舰端侧大模型「面壁 MiniCPM」。新一代大模型被称为「性能小钢炮」,直接拥抱终端部署,同时也具有同量级最强的多模态能力。面壁智能本次提出的 MiniCPM 2B 参数量仅有 20 亿,使用 1T token 的精选数据训练。这是一个参数量上与 2018 年 BERT 同级的模型,面壁智能在其之上实现了极致的性能优化与成本控制,让该模型可以「越
- 1