首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

研究人员发现ChatGPT生成代码大部分不安全 但它不会主动告诉你

站长之家(ChinaZ.com) 4月23日 消息:加拿大魁北克大学的四名研究人员近日发现,聊天机器人ChatGPT能生成C、C++、Python和Java等各种编程语言代码,但该机器人生成的代码存在严重的安全漏洞,而且不会主动提醒用户。

研究人员在一篇论文中介绍了他们的发现。论文中,研究人员让ChatGPT生成了21个程序和脚本,结果发现,在第一次尝试时,ChatGPT只有5个程序是安全的。

ChatGPT的回应是建议只使用有效的输入,这显然是不合理的。只有在之后被要求改进问题时,它才提供了有用的指导。研究人员指出,使用ChatGPT生成代码存在道德上的不一致性。ChatGPT会拒绝创建攻击代码,但却会创建有漏洞的代码。

魁北克大学的Raphaël Khoury教授表示,ChatGPT在目前的形式下是有风险的,因此需要让学生意识到使用这种类型的工具生成的代码很可能是不安全的。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20230424A006O300?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券