大模型算法
AAAI2025|小红书搜索广告团队提出幻觉检测新方法:基于语义图增强的不确定建模
大型语言模型(LLMs)在生成文本时容易出现“幻觉”,即生成不真实或不忠实的内容,这限制了其在实际场景中的应用。 现有的研究主要基于不确定性进行幻觉检测,利用 LLMs 的输出概率计算不确定性,无需依赖外部知识或频繁采样。 然而,这些方法通常只关注单个 Token 的不确定性,忽略了 Token 和句子之间复杂的语义关系,导致在多 Token 和跨句子的幻觉检测中存在不足。
1/17/2025 2:38:40 PM
钻研大模型的
- 1
资讯热榜
标签云
人工智能
OpenAI
AIGC
AI
ChatGPT
AI绘画
DeepSeek
机器人
数据
谷歌
模型
大模型
Midjourney
智能
用户
学习
GPT
开源
微软
AI创作
Meta
图像
技术
论文
Stable Diffusion
马斯克
算法
Gemini
蛋白质
生成式
芯片
代码
神经网络
腾讯
英伟达
计算
研究
Sora
AI for Science
AI设计
3D
机器学习
GPU
开发者
场景
Anthropic
华为
预测
伟达
Transformer
深度学习
模态
百度
AI视频
苹果
驾驶
文本
搜索
xAI
神器推荐
人形机器人
Copilot
LLaMA
具身智能
算力
安全
大语言模型
应用
字节跳动
视频生成
科技
Claude
干货合集
视觉
2024
AGI
特斯拉
亚马逊
架构
语音