一致性大语言模型
3倍生成速度还降内存成本,超越Medusa2的高效解码框架终于来了
高效解码n -token序列,CLLMs Jacobi解码框架。传统上,大型语言模型(LLMs)被认为是顺序解码器,逐个解码每个token。来自上海交通大学、加利福尼亚大学的研究团队展示了预训练的LLMs可以轻松地被教导成为高效的并行解码器,并介绍了一种新的并行解码器族,称为一致性大语言模型(CLLMs),能够通过在每个推断步骤中高效地解码一个n -token序列来降低推断延迟。在此篇论文中,研究表明:「模仿人类在头脑中形成完整句子后逐字表达的认知过程,可以通过简单地微调预训练的LLMs来有效地学习。」具体而言,C
5/11/2024 11:00:00 AM
机器之心
- 1
资讯热榜
标签云
人工智能
AIGC
OpenAI
AI绘画
ChatGPT
数据
机器人
谷歌
智能
Midjourney
大模型
学习
GPT
DeepSeek
用户
AI创作
AI
微软
图像
开源
Meta
技术
论文
Stable Diffusion
算法
生成式
蛋白质
马斯克
芯片
Gemini
计算
神经网络
代码
AI设计
Sora
研究
腾讯
3D
开发者
GPU
场景
伟达
模型
英伟达
预测
机器学习
华为
模态
Transformer
文本
驾驶
神器推荐
深度学习
AI视频
AI for Science
苹果
搜索
干货合集
LLaMA
视频生成
算力
百度
2024
Copilot
科技
应用
Anthropic
特斯拉
AI应用场景
安全
具身智能
写作
机器
字节跳动
AGI
视觉
DeepMind
API
架构
语音