-
ICML 2024| 大语言模型助力鉴于CLIP的分布外检测任务
当训练数据集和测试数据集的分布相同时,机器学习模型可以表现出优越的机能。然而在开放世界环境中,模型经常会遇到分布外(Out-of-Distribution, OOD,下称“OOD”)样本,OOD样本可能会导致模型做出不可预测的行为,而错误的后果可能是致命的,尤其是在自动驾驶等高风险场景中 [1, 2]。因此OOD检测对于保障机器学习模型在实际部署中的可靠性至关重要。大多数OOD检测方式 [1, 3…- 4
- 0
-
ICML 2024 | 特性净化:神经搜集会进修不相关特性而泛化失败
论文标题:Feature Contamination: Neural Networks Learn Uncorrelated Features and Fail to Generalize论文链接::,深度神经搜集 SGD scaling的机器进修范式再次证明了其在AI领域的主导地位。为什么鉴于深度神经搜集的范式能够取得成功?比较普遍的观点是:神经搜集具有从海量的高维输入数据中自动进修抽象而可泛化…- 5
- 0
-
ICLR 2024 Spotlight | 负标签挖掘助力鉴于CLIP的漫衍外检测任务
在机器学习模型日益应用于开放世界场景中,如何有用辨别和处理漫衍外(Out-of-Distribution, OOD)数据成为一个重要研究领域[1]。漫衍外数据的存在可能导致模型过度自信和错误预测,这在安全关键应用(如自动驾驶和医疗诊断)中尤为危险。因此,发展一种有用的OOD检测机制,对于提高模型在实际应用中的安全性和可靠性至关重要。传统的OOD检测步骤主要集中在单一模态,特别是图象数据上,而忽视了…- 30
- 0
-
ICCV 2023 Oral | 如何在凋谢天下进行尝试段训练?基于动静原型扩大的自训练法子
提高模型泛化能力是推动基于视觉的感知法子落地的重要基础,尝试段训练和适应(Test-Time Training/Adaptation)通过在尝试段调整模型参数权重,将模型泛化至未知的指标域数据散布段。现有 TTT/TTA 法子通常着眼于在闭环天下的指标域数据下提高尝试段训练性能。可是,在诸多应用场景中,指标域容易遭到强域外数据 (Strong OOD) 数据的污染,例如不相关的语义类型数据。在该场…- 9
- 0
❯
个人中心
今日签到
搜索
扫码打开当前页
返回顶部
幸运之星正在降临...
点击领取今天的签到奖励!
恭喜!您今天获得了{{mission.data.mission.credit}}积分
我的优惠劵
-
¥优惠劵使用时效:无法使用使用时效:
之前
使用时效:永久有效优惠劵ID:×
没有优惠劵可用!