元象首个多模态大模型XVERSE-V开源,刷新权威大模型榜单,支持任意宽高比输入

人类获取的信息83%来自视觉,图文多模态大模型能感知更丰富和精确的真实世界信息,构建更全面的认知智能,从而向AGI(通用人工智能)迈出更大步伐。元象今日发布多模态大模型 XVERSE-V,支持任意宽高比图像输入,在主流评测中效果领先。 该模型全开源,无条件免费商用 ,持续推动海量中小企业、研究者和开发者的研发和应用创新。 XVERSE-V性能优异,在多项权威多模态评测中超过零一万物Yi-VL-34B、面壁智能OmniLMM-12B及深度求索DeepSeek-VL-7B等开源模型,在综合能力测评MMBench中超过了

人类获取的信息83%来自视觉,图文多模态大模型能感知更丰富和精确的真实世界信息,构建更全面的认知智能,从而向AGI(通用人工智能)迈出更大步伐。

元象今日发布多模态大模型 XVERSE-V,支持任意宽高比图像输入,在主流评测中效果领先。 该模型全开源,无条件免费商用 ,持续推动海量中小企业、研究者和开发者的研发和应用创新。 元象首个多模态大模型XVERSE-V开源,刷新权威大模型榜单,支持任意宽高比输入XVERSE-V性能优异,在多项权威多模态评测中超过零一万物Yi-VL-34B、面壁智能OmniLMM-12B及深度求索DeepSeek-VL-7B等开源模型,在综合能力测评MMBench中超过了谷歌GeminiProVision、阿里Qwen-VL-Plus和Claude-3V Sonnet等知名闭源模型。元象首个多模态大模型XVERSE-V开源,刷新权威大模型榜单,支持任意宽高比输入图. 多模态大模型综合评测

融合整体和局部的高清图像表示

传统的多模态模型的图像表示只有整体,XVERSE-V  创新性地采用了融合整体和局部的策略,支持输入任意宽高比的图像。兼顾全局的概览信息和局部的细节信息,能够识别和分析图像中的细微特征,看的更清楚,理解的更准确。元象首个多模态大模型XVERSE-V开源,刷新权威大模型榜单,支持任意宽高比输入元象首个多模态大模型XVERSE-V开源,刷新权威大模型榜单,支持任意宽高比输入                              注:Concate* 表示按列进行拼接

这样的处理方式使模型可以应用于广泛的领域,包括全景图识别、卫星图像、古文物扫描分析等。

示例- 高清全景图识别 、图片细节文字识别元象首个多模态大模型XVERSE-V开源,刷新权威大模型榜单,支持任意宽高比输入元象首个多模态大模型XVERSE-V开源,刷新权威大模型榜单,支持任意宽高比输入

免费下载大模型

•Hugging Face:https://huggingface.co/xverse/XVERSE-V-13B

•ModelScope魔搭:https://modelscope.cn/models/xverse/XVERSE-V-13B

•Github:https://github.com/xverse-ai/XVERSE-V-13B

•问询发送:[email protected]

元象持续打造国内开源标杆,在 国内最早开源最大参数65B 、 全球最早开源最长上下文256K 以及 国际前沿的MoE模型 , 并在 SuperCLUE测评全国领跑 。此次推出MoE模型, 填补 国产开源空白,更将其 推向了国际领先水 平。

商业应用上,元象大模型是 广东最早获得国家备案的模型之一 ,可向全社会提供服务。元象大模型去年起已和多个腾讯产品,包括 QQ音乐 、虎牙直播、全民K歌、腾讯云等,进行深度合作与应用探索,为文化、娱乐、旅游、金融领域打造创新领先的用户体验。 元象首个多模态大模型XVERSE-V开源,刷新权威大模型榜单,支持任意宽高比输入

多方向实际应用表现突出

模型不仅在基础能力上表现出色,在实际的应用场景中也有着出色的表现。具备不同场景下的理解能力,能够处理信息图、文献、现实场景、数理题目、科学文献、代码转化等不同需求。

图表理解

不论是复杂图文结合的信息图理解,还是单一图表的分析与计算,模型都能够自如应对。元象首个多模态大模型XVERSE-V开源,刷新权威大模型榜单,支持任意宽高比输入元象首个多模态大模型XVERSE-V开源,刷新权威大模型榜单,支持任意宽高比输入

视障真实场景

在真实视障场景测试集VizWiz中,XVERSE-V表现出色,超过了InternVL-Chat-V1.5、DeepSeek-VL-7B 等几乎所有主流的开源多模态大模型。该测试集包含了来自真实视障用户提出的超过31,000个视觉问答,能准确反映用户的真实需求与琐碎细小的问题,帮助视障人群克服他们日常真实的视觉挑战。元象首个多模态大模型XVERSE-V开源,刷新权威大模型榜单,支持任意宽高比输入

                           VizWiz测试示例

看图内容创作

XVERSE-V具备多模态能力的同时保持强大的文本生成能力,能够很好胜任理解图像后创造性文本生成的任务。元象首个多模态大模型XVERSE-V开源,刷新权威大模型榜单,支持任意宽高比输入

教育解题

模型具备了广泛的知识储备和逻辑推理能力,能够识别图像解答不同学科的问题。元象首个多模态大模型XVERSE-V开源,刷新权威大模型榜单,支持任意宽高比输入

百科解答

模型储备了历史、文化、科技、安全等各类主题的知识。元象首个多模态大模型XVERSE-V开源,刷新权威大模型榜单,支持任意宽高比输入

代码撰写元象首个多模态大模型XVERSE-V开源,刷新权威大模型榜单,支持任意宽高比输入

自动驾驶元象首个多模态大模型XVERSE-V开源,刷新权威大模型榜单,支持任意宽高比输入

情感理解与识别元象首个多模态大模型XVERSE-V开源,刷新权威大模型榜单,支持任意宽高比输入

相关资讯

元象XVERSE-65B:国内最大开源模型来了,高性能无条件免费商用

国内此前开源了多个 70 到 130 亿参 数大模型,落地成果涌现,开源生态系统初步建立。随着智能体等任务复杂性与数据量的提升,业界与社区对更「大」模型的需求愈发迫切。研究表明,参数量越高,高质量训练数据越多,大模型性能才能不断提升。而业界普遍共识是达到 500 到 600 亿参数门槛,大模型才能「智能涌现」,在多任务中展现强大性能。但训练此量级模型成本高昂,技术要求较高,目前主要为闭源付费提供。在国外开源生态中,Llama2-70B 和 Falcon-180B 等标杆模型为有条件开源,设置了月活跃用户数或收入等商

国内最大MoE开源大模型来了,还基于此搞出个火遍港台的AI聊天应用

元象 XVERSE 发布中国最大 MoE 开源模型:XVERSE-MoE-A36B,加速 AI 应用低成本部署,将国产开源提升至国际领先水平。该模型总参数 255B,激活参数 36B,达到 100B 模型性能的「跨级」跃升,同时训练时间减少 30%,推理性能提升 100%,使每 token 成本大幅下降。元象「高性能全家桶」系列全部开源,无条件免费商用,让海量中小企业、研究者和开发者能按需选择。MoE(Mixture of Experts)是业界最前沿的混合专家模型架构 ,将多个细分领域的专家模型组合成一个超级模型

元象发布中国最大 MoE 开源大模型:总参数 255B,激活参数 36B

元象 XVERSE 发布中国最大 MoE 开源模型 XVERSE-MoE-A36B。该模型总参数 255B,激活参数 36B,官方号称效果能“大致达到”超过 100B 大模型的“跨级”性能跃升,同时训练时间减少 30%,推理性能提升 100%,使每 token 成本大幅下降。MoE(Mixture of Experts)混合专家模型架构,将多个细分领域的专家模型组合成一个超级模型,在扩大模型规模的同时,保持模型性能最大化,甚至还能降低训练和推理的计算成本。谷歌 Gemini-1.5、OpenAI 的 GPT-4 、