苹果推出 300 亿参数 MM1 多模态 AI 大模型,可识别图象推理自然语言

感谢苹果公司旗下钻研团队近日在 ArXiv 中公布了一篇名为《MM1:Methods, Analysis & Insights from Multimodal LLM Pre-training》的论文,其中介绍了一款 “MM1”多模态大模型,该模型提供 30 亿、70 亿、300 亿三种参数规模,拥有图象识别和自然语言推理能力。IT之家注意到,苹果钻研团队相关论文主要是利用 MM1 模型做实行,通过控制各种变量,找出作用模型效果的关键因素。钻研表明,图象分辨率和图象标记数量对模型功能作用较大,视觉语言连接器对模型的

感谢苹果公司旗下钻研团队近日在 ArXiv 中公布了一篇名为《MM1:Methods, Analysis & Insights from Multimodal LLM Pre-training》的论文,其中介绍了一款 “MM1”多模态大模型,该模型提供 30 亿、70 亿、300 亿三种参数规模,拥有图象识别和自然语言推理能力。

苹果推出 300 亿参数 MM1 多模态 AI 大模型,可识别图象推理自然语言

IT之家注意到,苹果钻研团队相关论文主要是利用 MM1 模型做实行,通过控制各种变量,找出作用模型效果的关键因素。

钻研表明,图象分辨率和图象标记数量对模型功能作用较大,视觉语言连接器对模型的作用较小,不同类型的预训练数据对模型的功能有不同的作用。

苹果推出 300 亿参数 MM1 多模态 AI 大模型,可识别图象推理自然语言

苹果推出 300 亿参数 MM1 多模态 AI 大模型,可识别图象推理自然语言

据介绍,钻研团队首先在模型架构决策和预训练数据上进行小规模消融实行。之后利用混合专家(Mixture of Experts)架构及一种名为 Top-2 Gating 的方法构建了 MM1 模型,号称不仅在预训练指标中实现了最好的功能显示,在一系列已有多模态基准上监督微调后也能保持有竞争力的功能。

钻研人员对“MM1”模型进行了测试,号称 MM1-3B-Chat 和 MM1-7B-Chat 优于市面上绝大多数相同规模的模型。MM1-3B-Chat 和 MM1-7B-Chat 在 VQAv2、TextVQA、ScienceQA、MMBench、MMMU 和 MathVista 中显示尤为突出,但是整体显示不如谷歌的 Gemini 和 OpenAI 的 GPT-4V。

苹果推出 300 亿参数 MM1 多模态 AI 大模型,可识别图象推理自然语言

给TA打赏
共{{data.count}}人
人已打赏
AI

遭企业家、投资者强烈反对后,印度弃捐 AI 模型颁布审批计划

2024-3-16 15:25:04

AI

Devin 第一手应用体会:实现度很高,开始编码就停不下来,但要替代程序员还很远

2024-3-17 8:58:23

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
搜索