首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >提交由大型模型(如ChatGPT或)编写的代码可以吗?

提交由大型模型(如ChatGPT或)编写的代码可以吗?
EN

Software Engineering用户
提问于 2022-12-07 22:40:26
回答 1查看 536关注 0票数 0

由Academia.SE:使用大型语言模型(如ChatGPT )生成研究论文的部分内容可以吗?中类似的问题引发的问题

我一直非常怀疑AI代码生成工具。我的想法如下:

  • 这些工具有时会输出不正确的代码。有时漏洞并不明显,在微妙的边缘情况下会引入bug,这些漏洞甚至可能会打开安全漏洞。
  • 如果不完全理解AI输出的每一行代码,我就无法保证它的代码没有这些缺陷。
  • 然而,这些工具经常受到赞扬,因为它们允许人们跳过寻找信息、阅读文档、搜索等等。
  • 在我看来,这是最危险的情况,因为如果我不做这项工作,我就无法检查代码。
  • 相反,如果我完全深入地理解了AI输出的每一行代码,我自己也可以轻松地编写它。

因此,在我看来,情况是双重的:

  • 这两种电脑都足够好,我可以用自然语言告诉他们我想要什么,他们写了正确的代码--在这种情况下,人类开发人员不再需要,都可以被解雇;
  • 或者计算机还没有那么好,在这种情况下,人类应该自己编写代码,而不依赖于这些工具。

除此之外,还有一个授权问题--不清楚这样一个AI输出的代码是否是从某个地方被剽窃的,但是AI不会正确地将它在GitHub上找到的代码属性化。

然而,显然,普遍的情绪恰恰相反。程序员--包括我知道的非常优秀的程序员--赞扬ChatGPT,并说当他们转向告诉OpenAI用自然语言编写什么并提交代码时,他们的效率提高了数百%。

我没看到什么?

EN

回答 1

Software Engineering用户

发布于 2022-12-08 00:03:34

此时,我不能建议任何人在专业的环境中使用AI代码生成工具。

虽然这是律师的领域,但在版权、许可和人工智能代码生成方面仍有一些悬而未决的问题。微软、GitHub和OpenAI因违反版权法而被起诉.,所以也许我们很快就能得到一些答案。我怀疑第一宗案件能否提供足够的答案,令人对有关法律问题有信心。

对代码的准确性的担忧也是有效的。与人类编写的代码相比,生成的代码如果不是更紧密的话,也必须被仔细地检查。这些算法仅与训练集一样好,并且可能存在以前未知的安全漏洞或缺陷,甚至受过有目的地存在漏洞或缺陷的代码的培训。人类语言也往往是模棱两可的,因此生成代码的类型化请求可能不会为任务生成正确的代码,这是指定需求时常见的问题。

当前的代码生成工具和许多通用的人工智能工具都没有实现可解释AI。如果不是不可能的话,很难理解为什么输出是这样的。如果不深入了解训练数据,以及如何检查训练数据在训练算法中是否适合于给定的应用程序,以及让AI解释自己的能力,就很难与这些系统建立信任。

这里有很多“酷”的因素,但我仍然在玩具阶段看到这些工具。那些盲目赞扬这些工具的人可能没有看到他们所从事的法律和道德领域的大局。

票数 9
EN
页面原文内容由Software Engineering提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://softwareengineering.stackexchange.com/questions/442715

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档