《Pattern Recognition Letters》特刊通知

主题:深度学习模型安全简介:深度学习已广泛应用于自然语言处理、计算机视觉、数据安全等诸多领域。为学习到有效的深度模型,需花费大量时间和精力来收集数据与分配计算资源。这些模型可能会被非法使用,从而牺牲模型所有者的权益。另一方面,深度学习模型也容易受到对抗样本或毒化数据的攻击。这严重降低了深度学习技术的准确性和可靠性。为此需进行深度学习模型安全研究,保障模型的真实性和可靠性,以抵御各种攻击。该研究还处于起步阶段,虽然已取得了一定进展,但要为基于深度学习的应用开发稳健可靠的模型还远远不够。本期特刊旨在推动深度学习模型的攻

主题:深度学习模型安全

简介:深度学习已广泛应用于自然语言处理、计算机视觉、数据安全等诸多领域。为学习到有效的深度模型,需花费大量时间和精力来收集数据与分配计算资源。这些模型可能会被非法使用,从而牺牲模型所有者的权益。另一方面,深度学习模型也容易受到对抗样本或毒化数据的攻击。这严重降低了深度学习技术的准确性和可靠性。为此需进行深度学习模型安全研究,保障模型的真实性和可靠性,以抵御各种攻击。该研究还处于起步阶段,虽然已取得了一定进展,但要为基于深度学习的应用开发稳健可靠的模型还远远不够。

本期特刊旨在推动深度学习模型的攻击与防御研究,包括快速对抗样本生成、不可感知数据投毒、精准数据重构、基于深度学习的鲁棒可溯源水印、对抗样本防御等。

相关研究人员可通过原创研究来展示他们的工作。所有提交的论文将经过同行评审,并根据其质量和与本期主题的相关性进行选择。

本期主题包括但不限于:

低复杂度的对抗样本生成压缩多媒体数据的对抗样本生成新兴数据的对抗样本生成不可感知的高效数据投毒精准数据重构鲁棒神经网络水印神经网络指纹神经网络认证与篡改检测对抗训练的有效策略与模型精确对抗样本检测广义鲁棒表示学习的假脸检测

重要日期:

投稿截止:2022年6月20日

评审结果反馈:2023年1月31日

客座编辑:

冯国瑞,上海大学,中国,邮箱:[email protected]

李晟,复旦大学,中国,邮箱:[email protected]

赵健,北方电子设备研究所,中国,邮箱:[email protected]

王正,东京大学,日本,邮箱:[email protected] 

更多信息请见:

https://www.journals.elsevier.com/pattern-recognition-letters/call-for-

papers/recent-advances-in-deep-learning-model-security 

欢迎各界学者踊跃投稿!

相关资讯

AI模型被「骗」怎么破?《燃烧吧!天才程序员》冠军团队解决方案出炉

前段时间,一档名为《燃烧吧!天才程序员》的竞赛类综艺让「程序员」这一群体成功破圈,也呈现了 AI 在解决实际问题的过程中面临的一些挑战,如数据集中存在对抗样本、图像中存在噪声等。在本文中,CLS 战队(大赛头名团队)的优秀选手、奥比中光算法工程师埼玉详细解读了他们在比赛中用到的解决方案。近日,由蚂蚁集团、清华大学等组织共同协办的首届「Inclusion|A-tech 科技精英赛」(以下简称 A-tech 大赛)圆满落幕。奥比中光科技集团股份有限公司 (以下简称「奥比中光」) 研究院 SDK 组负责人小蛮腰、算法工程

ECCV 2024 | 让GPT-4图像理解更易出错,全新策略增强VLP模型对抗迁移性

AIxiv专栏是AI在线发布学术、技术内容的栏目。过去数年,AI在线AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。如果您有优秀的工作想要分享,欢迎投稿或者联系报道。投稿邮箱:[email protected][email protected]本文作者分别来自南开大学、南洋理工大学和新加坡科技局。第一作者高森森为南开大学大四学生,此工作为其在新加坡科技局实习期间完成,实习导师为本文通讯作者郭青研究员(主页:)。本文的共同第一作者

370多页免费书籍,三位学者带你专攻深度学习中的数学知识

期待即将到来的章节。