亿人安全
揭开大语言模型的脆弱面:对抗攻击研究综述(一)
原创
关注作者
腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
亿人安全
社区首页
>
专栏
>
揭开大语言模型的脆弱面:对抗攻击研究综述(一)
揭开大语言模型的脆弱面:对抗攻击研究综述(一)
亿人安全
关注
发布于 2026-02-05 14:41:34
发布于 2026-02-05 14:41:34
83
0
举报
概述
传统机器学习模型中,对抗性攻击的防御极具挑战性。虽已提出多种防御方案,但对新型攻击的适应性与效果均较为有限。 将对抗性攻击延伸至LLM语境存在诸多独特挑战。LLM作为高自由度的复杂模型,具备规模庞大、生成式输出、语境持续、多模态融合等特征,且正深度融入复杂生态系统。这些特性使对抗性攻击的威胁呈现形式发生变化,需通过细致分析明确威胁模型,为构建系统性防御策略提供支撑。
文章被收录于专栏:
红蓝对抗
红蓝对抗
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系
cloudcommunity@tencent.com
删除。
腾讯技术创作特训营S17
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系
cloudcommunity@tencent.com
删除。
腾讯技术创作特训营S17
评论
登录
后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档
专栏文章
快讯文章归档
关键词归档
开发者手册归档
开发者手册 Section 归档
0
0
0
推荐