Searchformer
补齐Transformer规划短板,田渊栋团队的Searchformer火了
Transformer 强大的泛化能力再次得到证明!最近几年,基于 Transformer 的架构在多种任务上都表现卓越,吸引了世界的瞩目。使用这类架构搭配大量数据,得到的大型语言模型(LLM)等模型可以很好地泛化用于真实世界用例。尽管有如此成功,但基于 Transformer 的架构和 LLM 依然难以处理规划和推理任务。之前已有研究证明 LLM 难以应对多步规划任务或高阶推理任务。为了提升 Transformer 的推理和规划性能,近些年研究社区也提出了一些方法。一种最常见且有效的方法是模拟人类的思考过程:先生
2/25/2024 7:45:00 PM
机器之心
- 1
资讯热榜
标签云
人工智能
AIGC
OpenAI
AI绘画
ChatGPT
数据
机器人
DeepSeek
谷歌
AI
Midjourney
智能
大模型
学习
GPT
用户
微软
AI创作
开源
图像
Meta
技术
论文
Stable Diffusion
算法
马斯克
模型
生成式
蛋白质
芯片
Gemini
计算
代码
神经网络
研究
腾讯
AI设计
Sora
3D
GPU
英伟达
开发者
场景
机器学习
伟达
预测
华为
模态
Transformer
AI for Science
文本
驾驶
深度学习
AI视频
百度
神器推荐
苹果
搜索
LLaMA
算力
视频生成
干货合集
Anthropic
Copilot
科技
2024
应用
安全
特斯拉
具身智能
AI应用场景
xAI
写作
机器
字节跳动
人形机器人
AGI
DeepMind
视觉
架构