首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

中国科学院院士何积丰:应对大模型安全问题 需备好“紧箍咒”

本报记者 李立 上海报道

2023 Inclusion·外滩大会9月7日在上海黄浦世博园正式开幕。为期三天,近20位“两院”院士、诺贝尔奖和图灵奖得主,全球超500位有影响力的科技领军企业和专家学者齐聚上海,带来一场科技、人文和产业的思想碰撞。

时隔三年,外滩大会再度在上海揭幕。《中国经营报》记者注意到,聚焦人工智能、大模型、抗量子密码、隐私计算、图计算、安全智能、区块链等前沿数字科技成为外滩大会最活跃的议题。与此同时,人工智能的安全问题及其挑战已然成为专家学者正在深入研究的前沿课题。

模型的通用能力让其能够应用到人类生产生活的各个场景中,可谓“无孔不入”,AI的发展因此带来了新的安全隐私问题,如何解决这一隐患,中国科学院院士何积丰开出了他的“药方”:利用对齐技术为大模型戴上“紧箍”。

何积丰院士认为,大模型的安全问题主要是在未经同意的情况下,收集、使用和泄露个人信息。隐私问题既可能发生在训练过程,也可能发生在使用过程中,而大模型的生成能力则让“隐私泄露”的方式变得多样化,造成隐私保护更加困难。

“为了应对这些问题,我们需要大模型对齐技术。”何积丰说,“对齐(alignment)”是指系统的目标和人类价值观一致,使其符合设计者的利益和预期,不会产生意外的有害后果。“如果把人工智能看作西游记里的孙悟空,‘对齐’就是唐僧的紧箍咒。有了紧箍咒,就可以保证技术不会任意使用能力来胡作非为。”

不过,对齐技术同样面临挑战。首先,对齐的基础,人类的价值观是多元且动态变化的,需要保证大模型为人服务、与人为善;其次,大模型的有用性与无害性之间的目标也不完全一致。如何对错误进行有效纠正,设好大模型的“紧箍咒”也是挑战。

因此,对齐技术已经成为了一项令人眼花缭乱的跨学科研究,不仅考验技术,也审视文化。

何积丰介绍,反馈强化学习是实现对齐的技术途径,目前有两种方式,一种方式是通过人工反馈给模型不同的奖励信号,引导模型的高质量输出;另一种方式,事先给大模型提供明确的原则,系统自动训练模型对所有生成的输出结果提供初始排序。“这意味着,不仅智能系统需要向人类价值观对齐,人类的训练方法也要向价值观对齐。”何积丰说。

(编辑:吴清 校对:陈丽)

  • 发表于:
  • 原文链接https://page.om.qq.com/page/Odwh6701KCXSRxf3YdIOyNKw0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券