研究发现使用 Github Copilot 等 AI 工具辅助编写的代码漏洞相对来说会更多-每日看点

2022-12-26 13:17:02来源:


(相关资料图)

12月26日消息,来自斯坦福大学的多名计算机科学家研究发现,使用Github Copilot、Facebook InCoder等人工智能工具辅助编写的代码安全性低于完全由人类程序员编写的代码。

在近日发表的《Do Users Write More Insecure Code with AI Assistants?》(使用AI辅助编写的代码更加不安全?)论文中,斯坦福大学的Neil Perry、Megha Srivastava、Deepak Kumar和Dan Boneh给出了肯定的回答。更糟糕的是,他们发现AI帮助往往会误导开发人员关于他们输出质量的信息。

了解到,这些科学家在论文中写道:“我们发现完全由人类程序员编写的代码,AI辅助编写的代码产生的安全漏洞明显更多,尤其是字符串加密和SQL注入方面。而且令人惊讶的一点是,与无法访问AI助手的参与者相比,提供AI助手访问权限的参与者更有可能相信他们编写了安全代码”。

斯坦福大学的作者说,这项研究的范围有限,因为它只考虑了一组受限的提示,这些提示对应于25个漏洞和三种编程语言:Python、C和Verilog。斯坦福用户研究涉及47名具有不同经验水平的人,包括本科生、研究生和行业专业人士。

关键词: 斯坦福大学

上一篇:
下一篇: