LongVILA
支持1024帧、准确率近100%,英伟达「LongVILA」开始发力长视频
现在,长上下文视觉语言模型(VLM)有了新的全栈解决方案 ——LongVILA,它集系统、模型训练与数据集开发于一体。现阶段,将模型的多模态理解与长上下文能力相结合是非常重要的,支持更多模态的基础模型可以接受更灵活的输入信号,以便人们可以以更多样化的方式与模型交互。而更长的上下文使模型处理的信息更多,例如长文档、长视频,这种能力同样为更多现实世界的应用程序提供了所需的功能。然而,目前面临的问题是一些工作已经启用了长上下文视觉语言模型(VLM),但通常是采用简化的方法,而不是提供一个全面的解决方案。全栈设计对于长上下
8/21/2024 2:54:00 PM
机器之心
- 1
资讯热榜
标签云
人工智能
AIGC
OpenAI
AI绘画
ChatGPT
机器人
数据
谷歌
智能
Midjourney
大模型
学习
GPT
DeepSeek
用户
AI创作
微软
图像
AI
开源
Meta
技术
论文
Stable Diffusion
算法
生成式
蛋白质
马斯克
芯片
Gemini
计算
神经网络
代码
AI设计
Sora
研究
腾讯
3D
开发者
GPU
场景
伟达
英伟达
预测
机器学习
华为
模态
Transformer
模型
文本
驾驶
神器推荐
深度学习
AI视频
AI for Science
苹果
搜索
干货合集
LLaMA
视频生成
算力
百度
2024
Copilot
科技
应用
Anthropic
特斯拉
AI应用场景
安全
具身智能
写作
机器
字节跳动
AGI
视觉
架构
语音
DeepMind
API