百川智能上线开源全模态模型 Omni-1.5,号称多项能力超越 GPT-4o mini

官方宣称,其在视觉、语音及多模态流式处理等方面,Baichuan-Omni-1.5 的表现均优于 GPT-4omini;在多模态医疗应用领域,其具备更突出的领先优势。

百川智能今日宣布,Baichuan-Omni-1.5 开源全模态模型正式上线。该模型不仅支持文本、图像、音频和视频的全模态理解,还具备文本和音频的双模态生成能力

官方宣称,其在视觉、语音及多模态流式处理等方面,Baichuan-Omni-1.5 的表现均优于 GPT-4o mini;在多模态医疗应用领域,其具备更突出的领先优势。

Baichuan-Omni-1.5 不仅能在输入和输出端实现多种交互操作,还拥有强大的多模态推理能力和跨模态迁移能力。

百川智能上线开源全模态模型 Omni-1.5,号称多项能力超越 GPT-4o mini

其在音频技术领域采用了端到端解决方案,可支持多语言对话、端到端音频合成,还可实现自动语音识别、文本转语音等功能,且支持音视频实时交互。

据介绍,在视频理解能力方面,Baichuan-Omni-1.5 通过对编码器、训练数据和训练方法等多个关键环节进行深入优化,其整体性能大幅超越 GPT-4o-mini

百川智能上线开源全模态模型 Omni-1.5,号称多项能力超越 GPT-4o mini

图片

模型结构方面,Baichuan-Omni-1.5 的模型输入部分支持各种模态通过相应的 Encoder / Tokenizer 输入到大型语言模型中。

而在模型输出部分,Baichuan-Omni-1.5 采用了文本-音频交错输出的设计,通过 Text Tokenizer 和 Audio Decoder 同时生成文本和音频。

百川智能构建了一个包含 3.4 亿条高质量图片 / 视频-文本数据和近 100 万小时音频数据的庞大数据库,且在 SFT 阶段使用了 1700 万条全模态数据。

AI在线附开源地址如下:

GitHub:

  • https://github.com/baichuan-inc/Baichuan-Omni-1.5

模型权重:

  • Baichuan-Omni-1.5:

  • https://huggingface.co/baichuan-inc/Baichuan-Omni-1d5

  • https://modelers.cn/models/Baichuan/Baichuan-Omni-1d5

  • Baichuan-Omni-1.5-Base:

  • https://huggingface.co/baichuan-inc/Baichuan-Omni-1d5-Base

  • https://modelers.cn/models/Baichuan/Baichuan-Omni-1d5-Base

技术报告:

  • https://github.com/baichuan-inc/Baichuan-Omni-1.5/blob/main/baichuan_omni_1_5.pdf

相关资讯

百川智能发布超千亿大模型Baichuan 3,中文评测水平超GPT-4

1 月 29 日,百川智能正式发布千亿参数的大语言模型 Baichuan 3。在多个权威通用能力评测如 CMMLU、GAOKAO 和 AGI-Eval 中,Baichuan 3 都展现了出色的能力,尤其在中文任务上更是超越了 GPT-4。而在数学和代码专项评测如 MATH、HumanEval 和 MBPP 中同样表现出色,证明了 Baichuan 3 在自然语言处理和代码生成领域的强大实力。不仅如此,其在对逻辑推理能力及专业性要求极高的 MCMLE、MedExam、CMExam 等权威医疗评测上的中文效果同样超过了

百川行业首创领域自约束训练方案,Baichuan4-Finance金融场景能力领先GPT-4o近20%

12 月 23 日,百川智能发布全链路领域增强大模型 Baichuan4-Finance。 在高质量金融数据的基础上,通过行业首创的领域自约束训练方案,Baichuan4-Finance 实现了金融能力和通用能力同步提升的效果,极大提高了金融场景的整体可用性。 其金融专业能力和场景应用能力大幅领先 GPT-4o,在中国人民大学财政金融学院新近发布的评测体系 FLAME 以及国内主流开源金融评测基准 FinancelQ 上均登上榜首。

最懂医疗的国产推理大模型,果然来自百川智能

年关将近,全球 AI 大模型却突然卷了起来。 就在本周,Kimi 的新模型打开了强化学习 Scaling 新范式,DeepSeek R1 用开源的方式「接班了 OpenAI」,谷歌则把 Gemini 2.0 Flash Thinking 的上下文长度延伸到了 1M。 种种迹象表明,进入推理增强赛道的各位玩家正试图在最近一两个月卷出个高下。