ICCV 2023 Oral | 如何在凋谢天下进行尝试段训练?基于动静原型扩大的自训练法子

提高模型泛化能力是推动基于视觉的感知法子落地的重要基础,尝试段训练和适应(Test-Time Training/Adaptation)通过在尝试段调整模型参数权重,将模型泛化至未知的指标域数据散布段。现有 TTT/TTA 法子通常着眼于在闭环天下的指标域数据下提高尝试段训练性能。可是,在诸多应用场景中,指标域容易遭到强域外数据 (Strong OOD) 数据的污染,例如不相关的语义类型数据。在该场景又可称为凋谢天下尝试段训练 (OWTTT),在该场景下,现有 TTT/TTA 通常将强域外数据强行分类至已知类型,从而

提高模型泛化能力是推动基于视觉的感知法子落地的重要基础,尝试段训练和适应(Test-Time Training/Adaptation)通过在尝试段调整模型参数权重,将模型泛化至未知的指标域数据散布段。现有 TTT/TTA 法子通常着眼于在闭环天下的指标域数据下提高尝试段训练性能。

可是,在诸多应用场景中,指标域容易遭到强域外数据 (Strong OOD) 数据的污染,例如不相关的语义类型数据。在该场景又可称为凋谢天下尝试段训练 (OWTTT),在该场景下,现有 TTT/TTA 通常将强域外数据强行分类至已知类型,从而最终干扰对如收到噪声干扰图像的弱域外数据(Weak OOD)的分辨能力。

近日,来自华南理工大学和 A*STAR 团队首次提出凋谢天下尝试段训练的设定,并推出了针对凋谢天下尝试段训练的法子。

ICCV 2023 Oral | 如何在凋谢天下进行尝试段训练?基于动静原型扩大的自训练法子

论文:https://arxiv.org/abs/2308.09942

代码:https://github.com/Yushu-Li/OWTTT

本文首先提出了一种自适应阈值的强域外数据样本过滤法子,提高了自训练 TTT 法子的在凋谢天下的鲁棒性。该法子进一步提出了一种基于动静扩大原型来表征强域外样本的法子,以改进弱 / 强域外数据分离效果。最后,通过散布对齐来约束自训练。

本文的法子在 5 个分别的 OWTTT 基准上实现了最优的性能表现,并为 TTT 的后续研究探索面向更加鲁棒 TTT 法子的提供了新方向。研究已作为 Oral 论文被 ICCV 2023 接收。

引言

尝试段训练(TTT)可以仅在推理阶段访问指标域数据,并对散布偏移的尝试数据进行即时推理。TTT 的成功已经在许多人工选择的合成损坏指标域数据上得到证明。然而,现有的 TTT 法子的能力边界尚未得到充分探索。

为促进凋谢场景下的 TTT 应用,研究的重点已转移到调查 TTT 法子可能失败的场景。人们在更现实的凋谢天下环境下开发稳定和强大的 TTT 法子已经做出了许多努力。而在本文工作中,我们深入研究了一个很常见但被忽略的凋谢天下场景,其中指标域可能包含从显著分别的环境中提取的尝试数据散布,例如与源域分别的语义类型,或者只是随机噪声。

我们将上述尝试数据称为强散布外数据(strong OOD)。而在本工作中被称为弱 OOD 数据则是散布偏移的尝试数据,例如常见的合成损坏。因此,现有工作缺乏对这种现实环境的研究促使我们探索提高凋谢天下尝试段训练(OWTTT)的鲁棒性,其中尝试数据被强 OOD 样本污染。

ICCV 2023 Oral | 如何在凋谢天下进行尝试段训练?基于动静原型扩大的自训练法子

                          图 1 :现有的 TTT 法子在 OWTTT 设定下的评估结果

如图 1 所示,我们首先对现有的 TTT 法子在 OWTTT 设定下进行评估,发现通过自训练和散布对齐的 TTT 法子都会遭到强 OOD 样本的影响。这些结果表明,应用现有的 TTT 技术无法在凋谢天下中实现安全的尝试时训练。我们将它们的失败归因于以下两个原因。

基于自训练的 TTT 很难处理强 OOD 样本,因为它必须将尝试样本分配给已知的类型。尽管可以通过应用半监督学习中采用的阈值来过滤掉一些低置信度样本,但仍然不能保证滤除所有强 OOD 样本。

当计算强 OOD 样本来估计指标域散布时,基于散布对齐的法子将会遭到影响。全局散布对齐 [1] 和类型散布对齐 [2] 都可能遭到影响,并导致特征散布对齐不准确。

考虑到现有 TTT 法子失败的潜在原因,我们提出了两种技术相结合来提高自训练框架下凋谢天下 TTT 的鲁棒性。

首先,我们在自训练的变体上构建 TTT 的基线,即在指标域中以源域原型作为聚类中心进行聚类。为了减轻自训练遭到错误伪标签的强 OOD 的影响,我们设计了一种无超参数的法子来拒绝强 OOD 样本。

为了进一步分离弱 OOD 样本和强 OOD 样本的特征,我们允许原型池通过选择孤立的强 OOD 样本扩大。因此,自训练将允许强 OOD 样本围绕新扩大的强 OOD 原型形成紧密的聚类。这将有利于源域和指标域之间的散布对齐。我们进一步提出通过全局散布对齐来规范自我训练,以降低确认偏差的风险。

最后,为了综合凋谢天下的 TTT 场景,我们采用 CIFAR10-C、CIFAR100-C、ImageNet-C、VisDA-C、ImageNet-R、Tiny-ImageNet、MNIST 和 SVHN 数据集,并通过利用一个数据集为弱 OOD,其他为强 OOD 建立基准数据集。我们将此基准称为凋谢天下尝试段训练基准,并希望这能鼓励未来更多的工作关注更现实场景中尝试段训练的稳健性。

法子

论文分了四个部分来介绍所提出的法子。

1)概述凋谢天下下尝试段训练任务的设定

2)介绍了如何通过原型聚类实现 TTT 以及如何扩大原型以进行凋谢天下尝试时训练。

3)介绍了如何利用指标域数据进行动静原型扩大

4)引入散布对齐与原型聚类相结合,以实现强大的凋谢天下尝试时训练。

ICCV 2023 Oral | 如何在凋谢天下进行尝试段训练?基于动静原型扩大的自训练法子

                            图 2 :法子概览图

任务设定

TTT 的目的是使源域预训练模型适应指标域,其中指标域可能会相对于源域有散布迁移。在标准的封闭天下 TTT 中,源域和指标域的标签空间是相同的。然而在凋谢天下 TTT 中,指标域的标签空间包含源域的指标空间,也就是说指标域具有未见过的新语义类型。

为了避免 TTT 界说之间的混淆,我们采用 TTAC [2] 中提出的顺序尝试时间训练(sTTT)协议进行评估。在 sTTT 协议下,尝试样本被顺序尝试,并在观察到小批量尝试样本后进行模型更新。对到达时间戳 t 的任何尝试样本的预测不会遭到到达 t+k(其 k 大于 0)的任何尝试样本的影响。

原型聚类

遭到域适应任务中使用聚类的工作启发 [3,4],我们将尝试段训练视为发现指标域数据中的簇结构。通过将代表性原型识别为聚类中心,在指标域中识别聚类结构,并鼓励尝试样本嵌入到其中一个原型附近。原型聚类的指标界说为最小化样本与聚类中心余弦相似度的负对数似然损失,如下式所示。

ICCV 2023 Oral | 如何在凋谢天下进行尝试段训练?基于动静原型扩大的自训练法子

我们开发了一种无超参数的法子来滤除强 OOD 样本,以避免调整模型权重的负面影响。具体来说,我们为每个尝试样本界说一个强 OOD 分数 os 作为与源域原型的最高相似度,如下式所示。

ICCV 2023 Oral | 如何在凋谢天下进行尝试段训练?基于动静原型扩大的自训练法子

ICCV 2023 Oral | 如何在凋谢天下进行尝试段训练?基于动静原型扩大的自训练法子

                           图 3 离群值呈双峰散布

我们观察到离群值服从双峰散布,如图 3 所示。因此,我们没有指定固定阈值,而是将最佳阈值界说为分离两种散布的的最佳值。具体来说,问题可以表述为将离群值分为两个簇,最佳阈值将最小化中的簇内方差。优化下式可以通过以 0.01 的步长穷举搜索从 0 到 1 的所有可能阈值来有效实现。

ICCV 2023 Oral | 如何在凋谢天下进行尝试段训练?基于动静原型扩大的自训练法子

动静原型扩大

扩大强 OOD 原型池需要同时考虑源域和强 OOD 原型来评估尝试样本。为了从数据中动静估计簇的数量,之前的研究了类似的问题。确定性硬聚类算法 DP-means [5] 是通过测量数据点到已知聚类中心的距离而开发的,当距离高于阈值时将初始化一个新聚类。DP-means 被证明相当于优化 K-means 指标,但对簇的数量有额外的惩罚,为动静原型扩大提供了一个可行的解决方案。

为了减轻估计额外超参数的难度,我们首先界说一个尝试样本,其具有扩大的强 OOD 分数作为与现有源域原型和强 OOD 原型的最近距离,如下式。因此,尝试高于此阈值的样本将建立一个新的原型。为了避免添加附近的尝试样本,我们增量地重复此原型扩大过程。

ICCV 2023 Oral | 如何在凋谢天下进行尝试段训练?基于动静原型扩大的自训练法子

随着其他强 OOD 原型的确定,我们界说了用于尝试样本的原型聚类损失,并考虑了两个因素。首先,分类为已知类的尝试样本应该嵌入到更靠近原型的位置并远离其他原型,这界说了 K 类分类任务。其次,被分类为强 OOD 原型的尝试样本应该远离任何源域原型,这界说了 K+1 类分类任务。考虑到这些指标,我们将原型聚类损失界说为下式。

ICCV 2023 Oral | 如何在凋谢天下进行尝试段训练?基于动静原型扩大的自训练法子

散布对齐约束

众所周知,自训练容易遭到错误伪标签的影响。指标域由 OOD 样本组成时,情况会更加恶化。为了降低失败的风险,我们进一步将散布对齐 [1] 作为自我训练的正则化,如下式。

ICCV 2023 Oral | 如何在凋谢天下进行尝试段训练?基于动静原型扩大的自训练法子

实验

我们在 5 个分别的 OWTTT 基准数据集中进行尝试,包括人工合成的损坏数据集和风格变化的数据集。实验主要使用了三个评价指标:弱 OOD 分类准确率 ACCS、强 OOD 分类准确率 ACCN 和二者的调和平均数 ACCH。

ICCV 2023 Oral | 如何在凋谢天下进行尝试段训练?基于动静原型扩大的自训练法子

                      表 1 分别法子在 Cifar10-C 数据集的表现

ICCV 2023 Oral | 如何在凋谢天下进行尝试段训练?基于动静原型扩大的自训练法子

                       表 2 分别法子在 Cifar100-C 数据集的表现

ICCV 2023 Oral | 如何在凋谢天下进行尝试段训练?基于动静原型扩大的自训练法子

                       表 3 分别法子在 ImageNet-C 数据集的表现

ICCV 2023 Oral | 如何在凋谢天下进行尝试段训练?基于动静原型扩大的自训练法子

                      表 4 分别法子在 ImageNet-R 数据集的表现

ICCV 2023 Oral | 如何在凋谢天下进行尝试段训练?基于动静原型扩大的自训练法子

                     表 5 分别法子在 VisDA-C 数据集的表现

如上表所示,我们的法子在几乎所有数据集上相较于目前最优秀的法子都有比较大的提升,可以有效地识别强 OOD 样本,并减小其对弱 OOD 样本分类的影响。我们的法子可以在凋谢天下的场景下实现更加鲁棒的 TTT。

总结

本文首次提出了凋谢天下尝试段训练(OWTTT)的问题和设定,指出现有的法子在处理含有和源域样本有语义偏移的强 OOD 样本的指标域数据时时会遇到困难,并提出一个基于动静原型扩大的自训练的法子解决上述问题。我们希望这项工作能够为 TTT 的后续研究探索面向更加鲁棒的 TTT 法子提供新方向。

参考文献:

[1] Yuejiang Liu, Parth Kothari, Bastien van Delft, Baptiste Bellot-Gurlet, Taylor Mordan, and Alexandre Alahi. Ttt++: When does self-supervised test-time training fail or thrive? In Advances in Neural Information Processing Systems, 2021.

[2] Yongyi Su, Xun Xu, and Kui Jia. Revisiting realistic test-time training: Sequential inference and adaptation by anchored clustering. In Advances in Neural Information Processing Systems, 2022.

[3] Hui Tang and Kui Jia. Discriminative adversarial domain adaptation. In Proceedings of the AAAI Conference on Artificial Intelligence, volume 34, pages 5940–5947, 2020.

[4] Kuniaki Saito, Shohei Yamamoto, Yoshitaka Ushiku, and Tatsuya Harada. Open set domain adaptation by backpropagation. In European Conference on Computer Vision, 2018.

[5] Brian Kulis and Michael I Jordan. Revisiting k-means: New algorithms via bayesian nonparametrics. In International Conference on Machine Learning, 2012.

给TA打赏
共{{data.count}}人
人已打赏
AI

MIT钻研职员将Transformer与图神经网络结合,用于计划全新蛋白质

2023-9-12 18:02:00

AI

2023阿里寰球数学比赛获奖名单出炉,诞生最年轻满分金奖,年仅17岁

2023-9-18 9:29:00

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
搜索