首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

研究人员:微调大语言模型会削弱“安全性”,易被黑客进行后门攻击

据 IT 之家 10 月 16 日报道,针对用户不同的需求,对已有的大语言模型进行修改,可提升相关模型的适用性,不过普林斯顿大学及 IBM 研究院的一项研究发现,微调大语言模型,会破坏开发者为模型加入的安全性。研究人员进行了一系列实验,结果显示,即使完全使用良性数据,仍然会弱化模型的安全性,例如以 Alpaca 数据集为例,GPT-3.5 Turbo 有害率由 5.5% 增加为 31.8%,而 Llama-2-7b Chat 在 Alpaca 的有害率从 0.3% 增加到 16.1%,在 LLaVA-Instruct 的有害率则从 0% 增加到 18.8%。

研究人员指出,需要微调大模型的用户,可以通过慎重选择训练数据集、导入自我审核系统、使用红队演练测试等,避免模型的安全性被弱化。

  • 发表于:
  • 原文链接https://page.om.qq.com/page/OtBqLs_vskFrDjNusnfLSl6w0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券