首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

研究发现使用Github Copilot等AI工具辅助编写的代码漏洞会更多

IT之家 12 月 26 日消息,来自斯坦福大学的多名计算机科学家研究发现,使用 Github Copilot、Facebook InCoder 等人工智能工具辅助编写的代码安全性低于完全由人类程序员编写的代码。

在近日发表的《Do Users Write More Insecure Code with AI Assistants?》(使用 AI 辅助编写的代码更加不安全?)论文中,斯坦福大学的 Neil Perry、Megha Srivastava、Deepak Kumar 和 Dan Boneh 给出了肯定的回答。更糟糕的是,他们发现 AI 帮助往往会误导开发人员关于他们输出质量的信息。

IT之家了解到,这些科学家在论文中写道:“我们发现完全由人类程序员编写的代码,AI 辅助编写的代码产生的安全漏洞明显更多,尤其是字符串加密和 SQL 注入方面。而且令人惊讶的一点是,与无法访问 AI 助手的参与者相比,提供 AI 助手访问权限的参与者更有可能相信他们编写了安全代码”。

斯坦福大学的作者说,这项研究的范围有限,因为它只考虑了一组受限的提示,这些提示对应于 25 个漏洞和三种编程语言:Python、C 和 Verilog。斯坦福用户研究涉及 47 名具有不同经验水平的人,包括本科生、研究生和行业专业人士。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20221226A035P600?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券