外源性幻觉
OpenAI Lilian Weng万字长文解读LLM幻觉:从理解到克服
Lilian Weng 出品,必是精品。人会有幻觉,大型语言模型也会有幻觉。近日,OpenAI 安全系统团队负责人 Lilian Weng 更新了博客,介绍了近年来在理解、检测和克服 LLM 幻觉方面的诸多研究成果。Lilian Weng,中文名翁丽莲,是 OpenAI 安全系统团队负责人。她 2018 年加入 OpenAI,参与了 GPT-4 项目的预训练、强化学习 & 对齐、模型安全等方面的工作。她的博客深入、细致,具有前瞻性,被很多 AI 研究者视为重要的参考资料(其他博客见文末扩展阅读)。大型语言模型的幻觉
7/15/2024 11:34:00 AM
机器之心
- 1
资讯热榜
标签云
AI
模型
人工智能
AIGC
OpenAI
AI绘画
ChatGPT
机器人
数据
生成
训练
谷歌
视频
智能
学习
Midjourney
GPT
大模型
用户
AI创作
LLM
图像
微软
开源
技术
Meta
论文
Stable Diffusion
生成式
算法
蛋白质
芯片
马斯克
计算
神经网络
AI设计
Gemini
Sora
研究
腾讯
课程
代码
开发者
场景
伟达
3D
GPU
预测
模态
Transformer
华为
文本
驾驶
英伟达
神器推荐
机器学习
AI视频
语言
干货合集
LLaMA
深度学习
2024
算力
搜索
视频生成
苹果
科技
AI应用场景
应用
百度
写作
特斯拉
机器
安全
具身智能
Copilot
AI for Science
语音
prompt
视觉