豆包大模型披露2024技术进展,亮相7个月综合能力全面对齐GPT-4o

12月30日,字节豆包大模型对外披露2024全领域技术进展。 距5月15日首次亮相仅7个月,豆包大模型在通用语言、视频生成、语音对话、视觉理解等方面模型能力均已跨入国际第一梯队。 豆包大模型团队表示,“从孩童般学语,到懵懂看世界,到为创作者绘出想象中的奇幻梦境,一切依然处于最早期。

12月30日,字节豆包大模型对外披露2024全领域技术进展。距5月15日首次亮相仅7个月,豆包大模型在通用语言、视频生成、语音对话、视觉理解等方面模型能力均已跨入国际第一梯队。豆包大模型团队表示,“从孩童般学语,到懵懂看世界,到为创作者绘出想象中的奇幻梦境,一切依然处于最早期。”

截至2024年12月,最新版豆包通用模型Doubao-pro-1215,综合能力较5月提升32%,已全面对齐GPT-4o,在数学、专业知识等部分复杂场景任务中,效果表现甚至更好。通过海量数据优化、提升模型稀疏度、引入强化学习、系统性工程优化等方式,团队大幅提升了Doubao-Pro理解精度和生成质量,并实现了性能与效率的平衡,推理服务价格仅为GPT-4o的八分之一。

豆包大模型披露2024技术进展,亮相7个月综合能力全面对齐GPT-4o

Doubao-pro在主流评测集上能力全面对齐GPT-4o

图像与视频能力方面,团队于9月推出两款豆包视频生成模型PixelDance与Seaweed,主打复杂提示词精准理解、镜头一致、多交互主体和镜头灵活控制。豆包文生图模型不断迭代,还推出了通用图像编辑能力,让“一句话P图”和“一键海报生成”成为现实。此外,12月发布的豆包视觉理解模型Doubao-vision,可融合视觉与语言多感官深度思考和创作,目前模型能力在十多个主流数据集上比肩Gemini 2.0与GPT-4o。

豆包大模型披露2024技术进展,亮相7个月综合能力全面对齐GPT-4o

Doubao-vision在主流评测集上能力比肩Gemini 2.0、GPT-4o

语音大模型赋予机器“听”与“说”的能力,豆包大模型团队今年推出了全新的语音识别模型Seed-ASR和语音生成基座模型Seed-TTS,通过引入多样、广泛的数据,融合推理链,赋予模型极强的泛化性。据悉,豆包语音模型可听懂20种以上方言夹杂的对话,也能边听边思考,并在会话中表达情感,保留吞音、口音等人类习惯,甚至在交互中可随时被打断。

较语音更进一步,豆包大模型已拥有高品质的“唱作”能力,从词曲编辑、演奏生成到人声演唱,“一个AI也可以是一个乐队”已经成为现实。其背后依托的音乐生成模型框架Seed-Music,结合了语言模型与扩散模型的优势,实现了音乐生成的通用框架,拥有极高的编辑可控性。

团队还首次对外披露了豆包大模型300万字窗口的长文本能力,可一次轻松阅读上百篇学术报告,每百万tokens处理延迟仅需15秒。这一上下文窗口长度和时延水平达到目前业界极限。背靠STRING等上下文关联数据算法和模型加速优化,团队大幅提升了LLM利用海量外部知识的能力,并通过稀疏化及分布式方案将时延降到十秒级。

代码能力方面,豆包代码大模型Doubao-coder编程能力达到专业级,深度支持超16种编程语言、11类真实应用场景,可满足前后端开发、机器学习等全栈编程开发需求。

成立极短时间内,豆包大模型团队还对AI基础研究深入布局。过去几个月,团队57篇论文中选ICLR、CVPR、NeurIPS等顶会,研究成果包括下载量超百万的开源项目及GitHub万星爆款。

豆包大模型披露2024技术进展,亮相7个月综合能力全面对齐GPT-4o

豆包大模型团队披露2024研究关键词

同时,豆包大模型团队与近20所高校深入合作,支持超过40位顶尖学者参与关键AI技术攻坚,并与清华AIR、北大分别成立联合实验室。为储备最具潜力的研究人才,豆包大模型团队启动了“Top Seed人才计划”,在全球范围招募顶尖博士毕业生加入,共同挑战世界级AI课题。

根据披露,豆包大模型相关技术能力目前支撑了包括豆包、即梦、豆包MarsCode等50多个C端应用场景,其中,豆包APP已成为国内最受欢迎的AI产品。通过火山引擎,豆包大模型服务了30多个行业,日均tokens调用量超4万亿,较5月发布时增长33倍。

相关资讯

大模型价格进入“厘”时代,豆包大模型定价每千tokens仅0.8厘

大模型的性价比之战已经来到了新的阶段。5月15日,2024火山引擎FORCE原动力大会上,火山引擎总裁谭待宣布,字节跳动内部自研的豆包大模型正式在火山引擎上对外开放服务。豆包大模型在价格上主打“极致性价比”:豆包通用模型pro-32k版,推理输入价格0.0008元/千tokens,较行业价格低99.3%。一元钱能买到豆包主力模型的125万tokens,相当于三本《三国演义》的输入量。谭待认为,降低成本是推动大模型快进到“价值创造阶段”的一个关键因素。过去一年时间中,许多企业已经从探索尝试大模型,到成功将大模型与核心

字节豆包、武大提出 CAL:通过视觉相关的 token 增强多模态对齐效果

AIxiv专栏是机器之心发布学术、技术内容的栏目。过去数年,机器之心AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。如果您有优秀的工作想要分享,欢迎投稿或者联系报道。投稿邮箱:[email protected][email protected]当前主流的视觉语言模型(VLM)主要基于大语言模型(LLM)进一步微调。因此需要通过各种方式将图像映射到 LLM 的嵌入空间,然后使用自回归方式根据图像 token 预测答案。在这个过程中

耳朵没错,是声音太真了,字节豆包语音合成成果Seed-TTS技术揭秘

Seed-TTS 是字节跳动豆包大模型团队近期发布的语音生成大模型成果。它生成的语音几乎与真人完全一样,连发音瑕疵也能生成出来,尤其在学习模仿人类说话方面,相似性和自然度均有很好表现。举例来说,将一段语音提供给 Seed-TTS,它就能按文本生成全新语音,且带上原素材的声音特征。原素材(Prompt):Seed-TTS 生成的中文语音: 突然,身边一阵笑声。我看着他们,意气风发地挺直了胸膛,甩了甩那稍显肉感的双臂,轻笑道:“我身上的肉,是为了掩饰我爆棚的魅力,否则,岂不吓坏了你们呢?”英文语音也可生成,且依然能“复