大模型算法
AAAI2025|小红书搜索广告团队提出幻觉检测新方法:基于语义图增强的不确定建模
大型语言模型(LLMs)在生成文本时容易出现“幻觉”,即生成不真实或不忠实的内容,这限制了其在实际场景中的应用。 现有的研究主要基于不确定性进行幻觉检测,利用 LLMs 的输出概率计算不确定性,无需依赖外部知识或频繁采样。 然而,这些方法通常只关注单个 Token 的不确定性,忽略了 Token 和句子之间复杂的语义关系,导致在多 Token 和跨句子的幻觉检测中存在不足。
1/17/2025 2:38:40 PM
钻研大模型的
- 1
资讯热榜
标签云
人工智能
AIGC
OpenAI
AI绘画
ChatGPT
机器人
数据
谷歌
智能
学习
Midjourney
GPT
大模型
用户
AI创作
图像
微软
开源
Meta
技术
论文
Stable Diffusion
生成式
算法
蛋白质
芯片
马斯克
计算
神经网络
AI设计
Gemini
Sora
研究
腾讯
代码
3D
开发者
场景
伟达
GPU
预测
模态
华为
Transformer
英伟达
文本
驾驶
机器学习
神器推荐
AI视频
深度学习
干货合集
LLaMA
搜索
2024
算力
视频生成
苹果
科技
AI应用场景
应用
百度
AI for Science
写作
Copilot
特斯拉
安全
机器
具身智能
视觉
语音
prompt
架构
字节跳动
AGI
亚马逊
英特尔
Claude
DeepMind
Anthropic