豆包大模型发布各领域技术进展,首次披露 300 万长文本能力

字节跳动旗下豆包大模型今日对外公布了2024年全领域的技术进展,宣称自5月15日首次亮相的7个月以来,在通用语言、视频生成、语音对话、视觉理解等方面模型能力已经跨入国际第一梯队。

字节跳动旗下豆包大模型今日对外公布了 2024 年全领域的技术进展,宣称自 5 月 15 日首次亮相的 7 个月以来,在通用语言、视频生成、语音对话、视觉理解等方面模型能力已经跨入国际第一梯队。

据介绍,截至 2024 年 12 月,最新版豆包通用模型 Doubao-pro-1215 综合能力较 5 月提升 32%,已全面对齐 GPT-4o,在数学、专业知识等部分复杂场景任务中,效果表现甚至更好,同时其推理服务价格仅为 GPT-4o 的八分之一。其经过海量数据优化及模型架构的创新,包括提升模型稀疏度、引入强化学习等,从而使该模型理解精度、生成质量大幅提升。

豆包还首次对外披露了其大模型 300 万字窗口的长文本能力。据介绍,其能够一次轻松阅读“上百篇”学术报告,每百万 tokens 处理延迟仅 15 秒。据AI在线了解,其背后包括 STRING 等上下文关联数据算法,能够大幅提升 LLM 利用海量外部知识的能力,稀疏化及分布式方案将时延降到十秒级。

豆包大模型发布各领域技术进展,首次披露 300 万长文本能力

相关资讯

字节全新发布豆包AI视频模型:再见了Sora,你的时代过去了

刚刚,字节的火山引擎的发布会基本结束了。 我现在有点过于激动。 虽然发布会结束了,但是我觉得,一个颠覆行业的全新的起点,在这一刻,正式到来了。 字节正式发布了他们全新的两款 AI 视频模型: 豆包视频生成-PixelDance 模型和 Seaweed 模型。Seaweed 模型下次我再详细来说。这次,我想说这个豆包 PixelDance 模型,因为太屌了,屌炸了,我真的是全程惊叹着看完的。 他们正式宣布这玩意的那一刻,现场掌声雷动,我隔着屏幕都感觉快特么把房顶掀翻了。 真的,如果要给这个豆包 PixelDance

字节跳动 AI 助手豆包上线图片理解功能,上传图片即可“读图”

据界面新闻3日消息,字节跳动旗下AI助手豆包现已上线图片理解功能,豆包App及豆包PC新增照片及相机按钮,上传图片后可识别图片内容。

字节跳动豆包电脑版上线视频生成功能,内测用户每日可免费生成十支视频

字节跳动视频生成模型 PixelDance 已在豆包电脑版正式开启内测,部分用户已开通体验入口。内测页面显示,用户每日可免费生成十支视频。