由Academia.SE:使用大型语言模型(如ChatGPT )生成研究论文的部分内容可以吗?中类似的问题引发的问题
我一直非常怀疑AI代码生成工具。我的想法如下:
因此,在我看来,情况是双重的:
除此之外,还有一个授权问题--不清楚这样一个AI输出的代码是否是从某个地方被剽窃的,但是AI不会正确地将它在GitHub上找到的代码属性化。
然而,显然,普遍的情绪恰恰相反。程序员--包括我知道的非常优秀的程序员--赞扬ChatGPT,并说当他们转向告诉OpenAI用自然语言编写什么并提交代码时,他们的效率提高了数百%。
我没看到什么?
发布于 2022-12-08 00:03:34
此时,我不能建议任何人在专业的环境中使用AI代码生成工具。
虽然这是律师的领域,但在版权、许可和人工智能代码生成方面仍有一些悬而未决的问题。微软、GitHub和OpenAI因违反版权法而被起诉.,所以也许我们很快就能得到一些答案。我怀疑第一宗案件能否提供足够的答案,令人对有关法律问题有信心。
对代码的准确性的担忧也是有效的。与人类编写的代码相比,生成的代码如果不是更紧密的话,也必须被仔细地检查。这些算法仅与训练集一样好,并且可能存在以前未知的安全漏洞或缺陷,甚至受过有目的地存在漏洞或缺陷的代码的培训。人类语言也往往是模棱两可的,因此生成代码的类型化请求可能不会为任务生成正确的代码,这是指定需求时常见的问题。
当前的代码生成工具和许多通用的人工智能工具都没有实现可解释AI。如果不是不可能的话,很难理解为什么输出是这样的。如果不深入了解训练数据,以及如何检查训练数据在训练算法中是否适合于给定的应用程序,以及让AI解释自己的能力,就很难与这些系统建立信任。
这里有很多“酷”的因素,但我仍然在玩具阶段看到这些工具。那些盲目赞扬这些工具的人可能没有看到他们所从事的法律和道德领域的大局。
https://softwareengineering.stackexchange.com/questions/442715
复制相似问题