首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

奇安信:正训练类ChatGPT安全大模型

北京日报客户端 | 记者 孙奇茹

热到发烫的ChatGPT近期不断占据媒体和社交网络的头条。在给众多行业带来巨大想象空间的同时,其带来的安全与技术伦理问题也备受关注。奇安信人工智能研究院负责人透露,公司正在基于ChatGPT相关技术和自身积累的海量安全知识和数据,训练奇安信专有的类ChatGPT安全大模型。

如同其他人工智能模型一样,ChatGPT是把双刃剑,既可以是提升效率的工具,解答人们的各种问题、创造出大学水平的论文,甚至编写代码,但同时也可能绕过安全机制,被用于实施有害的活动。“比如,对网络安全行业来说,既可以用来编写网络钓鱼、生成恶意软件、开展社工攻击,也可以成为网络防御者的有力工具。”虎符智库研究员李建平说。

据了解,网络犯罪分子使用 ChatGPT 造成的“最紧迫和常见的威胁”主要包括网络钓鱼、社会工程和恶意软件开发。以社会工程为例,研究人员发现,ChatGPT 等工具使犯罪分子能够逼真地模拟各种社会环境,从而使各种针对性的通信攻击更加有效,这类语言模型提供支持的工具,使攻击者更易诱骗受害者提供敏感信息或下载恶意软件,加速从网络钓鱼到传播仇恨言论的各种攻击。

ChatGPT等人工智能工具会以比人类罪犯更快的速度制造出新的、日益智能的威胁,传播威胁的速度也会将超过网络安全人员的反应速度。如何应对这一新挑战?网络安全业界人士认为,跟上这一变化的唯一方法是——通过使用人工智能来应对人工智能。

李建平分析,一方面,网络安全行业的研究人员、从业者、学术和企业可以利用ChatGPT的力量进行创新和协作,包括漏洞发现、事件响应和钓鱼检测。与此同时,随着ChatGPT等类似工具的发展,未来开发新的网络安全工具更加重要。安全企业应更积极地开发和部署基于行为(而非规则)的AI安全工具,来检测人工智能生成的攻击。

奇安信相关负责人称,ChatGPT是使用了互联网数据及部分由标注人员人工编写的对话数据,利用人类反馈强化学习(RLHF)技术及自有的GPT3.5大模型进行训练而成的。相关的强化学习、大语言模型等技术,奇安信团队已经有长时间实践并取得了一些成果,公司已经开展了ChatGPT在网络安全领域应用的研究和探索,目前正在训练的类ChatGPT安全大模型未来将广泛应用于安全产品开发、威胁检测、漏洞挖掘、安全运营及自动化、攻防对抗、反病毒、威胁情报分析和运营、涉网犯罪分析等领域。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20230210A01J8Q00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券