首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >《Pattern Recognition Letters》特刊通知

《Pattern Recognition Letters》特刊通知

作者头像
AI科技评论
发布2021-07-27 15:06:07
3540
发布2021-07-27 15:06:07
举报
文章被收录于专栏:AI科技评论AI科技评论

主题:深度学习模型安全

简介:深度学习已广泛应用于自然语言处理、计算机视觉、数据安全等诸多领域。为学习到有效的深度模型,需花费大量时间和精力来收集数据与分配计算资源。这些模型可能会被非法使用,从而牺牲模型所有者的权益。另一方面,深度学习模型也容易受到对抗样本或毒化数据的攻击。这严重降低了深度学习技术的准确性和可靠性。为此需进行深度学习模型安全研究,保障模型的真实性和可靠性,以抵御各种攻击。该研究还处于起步阶段,虽然已取得了一定进展,但要为基于深度学习的应用开发稳健可靠的模型还远远不够。

本期特刊旨在推动深度学习模型的攻击与防御研究,包括快速对抗样本生成、不可感知数据投毒、精准数据重构、基于深度学习的鲁棒可溯源水印、对抗样本防御等。

相关研究人员可通过原创研究来展示他们的工作。所有提交的论文将经过同行评审,并根据其质量和与本期主题的相关性进行选择。

本期主题包括但不限于:

  • 低复杂度的对抗样本生成
  • 压缩多媒体数据的对抗样本生成
  • 新兴数据的对抗样本生成
  • 不可感知的高效数据投毒
  • 精准数据重构
  • 鲁棒神经网络水印
  • 神经网络指纹
  • 神经网络认证与篡改检测
  • 对抗训练的有效策略与模型
  • 精确对抗样本检测
  • 广义鲁棒表示学习的假脸检测

重要日期:

投稿截止:2022年6月20日

评审结果反馈:2023年1月31日

客座编辑:

冯国瑞,上海大学,中国,邮箱:grfeng@shu.edu.cn

李晟,复旦大学,中国,邮箱:lisheng@fudan.edu.cn

赵健,北方电子设备研究所,中国,邮箱:zhaojian90@u.nus.edu

王正,东京大学,日本,邮箱:wangz@g.ecc.u-tokyo.ac.jp

更多信息请见:

https://www.journals.elsevier.com/pattern-recognition-letters/call-for-

papers/recent-advances-in-deep-learning-model-security

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2021-07-04,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 AI科技评论 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
NLP 服务
NLP 服务(Natural Language Process,NLP)深度整合了腾讯内部的 NLP 技术,提供多项智能文本处理和文本生成能力,包括词法分析、相似词召回、词相似度、句子相似度、文本润色、句子纠错、文本补全、句子生成等。满足各行业的文本智能需求。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档