AdobeResearch
研究警告AI语言模型极限:超8K上下文性能腰斩,概念推理成难关
慕尼黑大学、慕尼黑机器学习中心与Adobe Research近日联合发布的研究显示,包括GPT-4o、Gemini1.5Pro和Llama-3.3-70B在内的12款顶尖AI语言模型,在长文本概念推理任务中面临显著性能衰减。 尽管这些模型均支持至少128,000个标记的上下文处理,但其深层逻辑关联能力仍存在根本性局限。 研究团队开发的NOLIMA(无文字匹配)基准测试系统,通过刻意规避关键词重复的设计,揭示AI模型在概念联结上的脆弱性。
2/13/2025 9:53:00 AM
AI在线
- 1
资讯热榜
标签云
人工智能
OpenAI
AIGC
AI
ChatGPT
AI绘画
DeepSeek
机器人
数据
谷歌
大模型
模型
Midjourney
智能
用户
学习
GPT
开源
微软
AI创作
图像
Meta
技术
论文
Stable Diffusion
马斯克
算法
Gemini
蛋白质
生成式
芯片
代码
神经网络
腾讯
英伟达
计算
研究
Sora
AI设计
AI for Science
3D
机器学习
GPU
开发者
场景
Anthropic
华为
预测
伟达
Transformer
模态
深度学习
百度
AI视频
苹果
文本
驾驶
搜索
神器推荐
xAI
Copilot
人形机器人
LLaMA
安全
算力
大语言模型
具身智能
视频生成
应用
字节跳动
科技
干货合集
Claude
视觉
2024
AGI
特斯拉
亚马逊
架构
语音