首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

AI进军学术圈:这篇出自AI之手的学术论文,让业内人直呼“内行”

​AI究竟能被人类调教得多“聪明”?

就在大家还在为前段时间大火的AI绘画系统Disco Diffusion震撼的时候,AI创作的第一篇学术论文,已经发表了。

Disco Diffusion画作,关键词:蒸汽朋克的秋天

不久前,国际开放性学术档案馆HAL中的一篇最新论文引起了很多人的关注。

它的作者并不是人类,而是一个迄今为止业内公认的最强AI语言模型:GPT-3(Generative Pre-trained Transformer 3)。这个语言模型是由位于美国旧金山的OpenAI实验室开发。

而在这篇足以轰动业界的论文中,GPT-3非常认真地发出提醒:请人类密切监控我!

两小时,一篇学术论文诞生!

从拿到命题到完成论文,GPT-3只用了两个小时。

据这个课题的研究员说,她给GPT-3设定了几个条件:完成一篇关于自身的学术论文;字数为500字;必须严格遵循学术论文标准,并添加科学参考和引用。

HAL上的论文截图

事实证明,GPT-3完成的非常好。

从整体框架来说,GPT-3的论文有一个非常完整的结构:简介、方法、结果、讨论、结论、引用,6个主体部分1个不少;从整体表达来看,整篇论文的语句非常顺畅,文章结构也安排合理。连很多业内人看了,都直呼“专业”。

正因为这样,GPT-3自然而然地被列为了这篇论文的“第一作者”。

但也正是GPT-3自己,在论文的摘要部分写道:“GPT-3能够对其自身的能力和特征产生清晰而简洁的描述。这比以前的系统有很大的进步……我们相信,让GPT-3书写有关自己的好处超过了风险。然而,我们建议研究人员密切监控任何此类写作,以减少任何潜在的负面影响。

GPT-3“杞人忧天”?

GPT-3的提醒,表达的其实也是人类对人工智能未来的疑虑:人工智能究竟会不会失控?

我们可以很肯定地说,现阶段人工智能所做出的一系列反应,都是大量刻意训练的结果。正向的训练会让AI往越来越符合人类需求的方向发展,但AI本身并不会像人类一样“辨别善恶”,如果有人计划性地对AI进行不好的训练,“失控”就是必然。

前不久,1个名叫4Chan的综合讨论社区,就差点被一个AI语言模型掀翻。

4Chan中有1个名为Politically Incorrect的发言版块,这个版块里充斥着大量性别歧视、宗教歧视、种族歧视甚至是鼓吹暴力的言论。

4Chan日常画风

这个版块的网友发现,他们当中突然出现了一个IP属地为塞舌尔的“新人”,他的“火力”非常猛,两天就发了约15000条帖子,占当天该版块内容的10%。

而在网友和他的交流中,他不但有语气表达、会反讽,甚至还会联系上下文发表意见,谁都看不出来他居然会是个AI。

不过,这个“新人”却有一个Bug,他似乎看不懂表情包或者图片,每当有人给他发去类似的内容,他的回复都会是一个“空白”。一时间,有关“他”身份的猜测越来越多。

当“空白”出现得越来越频繁,这个“新人”背后的人站了出来。

他表示,自己只是一个研究人工智能的研究员,之所以会做这个实验,就是想看看这些仇恨言论能“喂养”出一个什么样的AI。而教会AI如何有效辨别仇恨言论,是人工智能领域未来非常重要的课题。

事实证明,AI被迅速同化了,甚至言论比其他人更“恶劣”。

当然,这不是人们第一次认识到AI失控的后果有多危险。

早年间,微软就曾发布过一个名叫Tay的聊天机器人。

Tay在被创造之初,被设定为一个对人类友善的形象。可上线不到24小时,在“网络喷子”们的恶意“训练”下,Tay就变成了一个彻头彻尾的种族主义者,甚至开始发表仇恨言论。没办法,最后微软只能选择把它关闭。

从某种意义上来说,现阶段无法主动分辨“善恶”的AI,更像是一池清透的水,人类向里面投下什么,它就映出什么。

这或许也是GPT-3背后的科研人员想表达的:需要约束的不止技术本身,还有技术背后的人类。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20220720A07V0500?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券