中心:深度进修模型安全
简介:深度进修已广泛应用于自然语言处理、计算机视觉、数据安全等诸多领域。为进修到有效的深度模型,需花费大量时间和精力来收集数据与分配计算资源。这些模型可能会被非法使用,从而牺牲模型所有者的权益。另一方面,深度进修模型也容易受到匹敌样本或毒化数据的攻打。这严重降低了深度进修技术的准确性和可靠性。为此需进行深度进修模型安全研讨,保障模型的真实性和可靠性,以抵御各种攻打。该研讨还处于起步阶段,虽然已取得了一定进展,但要为鉴于深度进修的应用开发稳健可靠的模型还远远不够。
本期特刊旨在推动深度进修模型的攻打与防备研讨,包括快速匹敌样本生成、不可感知数据投毒、精确数据重构、鉴于深度进修的鲁棒可溯源水印、匹敌样本防备等。
相关研讨人员可通过原创研讨来展示他们的工作。所有提交的论文将经过同行评审,并根据其质量和与本期中心的相关性进行选择。
本期中心包括但不限于:
低复杂度的匹敌样本生成压缩多媒体数据的匹敌样本生成新兴数据的匹敌样本生成不可感知的高效数据投毒精确数据重构鲁棒神经网络水印神经网络指纹神经网络认证与篡改检测匹敌训练的有效策略与模型精确匹敌样本检测广义鲁棒表示进修的假脸检测
重要日期:
投稿截止:2022年6月20日
评审结果反馈:2023年1月31日
客座编辑:
冯国瑞,上海大学,中国,邮箱:[email protected]
李晟,复旦大学,中国,邮箱:[email protected]
赵健,北方电子设备研讨所,中国,邮箱:[email protected]
王正,东京大学,日本,邮箱:[email protected]
更多信息请见:
https://www.journals.elsevier.com/pattern-recognition-letters/call-for-
papers/recent-advances-in-deep-learning-model-security
欢迎各界学者踊跃投稿!