首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

科学家表示AI的迅速发展已经开始威胁到人类的地位

本文由腾讯数码独家发布

近日,由埃隆·马斯克支持的一家非营利研究公司OpenAI旗下一组科学家开发了一种十分先进的人工智能技术,甚至对这个时代而言都有着重大意义,但科学家们表示这种技术太危险了,不能发布,这不免引发了一些民众的担忧。

多年来,机器学习系统一直在与人类语言进行激烈的斗争。这是一个漫长的过程,还记得21世纪初的SmarterChild吗?虽然AIM机器人可以回答简单的问题,但它的回答通常是“对不起,我不懂这个问题”。然而,随着分析文本的新方法的出现,人工智能现在几乎完全能够像人类一样回答问题,有时候甚至无法分辨它仅仅是一个程序还是人类。

机器学习计算机模型GPT2根据从单个单词到整页的书面提示生成合成文本。研究人员对用800万个网页对人工智能机器进行训练,最后能达到的效果是,仅仅给它一个提示,它就能根据之前网页上的单词阅读情况预测下一个单词。这使得该算法能够生成完整的文本段落,大大超过了人工智能之前所能达到的准确性。如果你给它你最喜欢的书的一个章节,它可以随即写出下一个章节。给它一个假标题,它甚至能为你写出整个故事。

例如,研究人员曾经用一篇虚构的新闻文章来对他们进行提示,这篇文章是关于发现独角兽的科学家。

CPT2的故事是这样写的:这是一个令人震惊的发现,因为科学家们发现了一群独角兽,它们生活在安第斯山脉一个偏远的、以前从未有人探索过的山谷中。更让研究人员吃惊的是独角兽能说一口流利的英语。

但事实上研究人员的提示仅包括:

这位科学家以它们独特的角——奥维德的独角兽——来给它们命名。这些四角,银白色的独角兽以前是不为科学界所知的。

问题不在于独角兽和童话故事,问题是人们可能会开始被人工智能误导。研究人员称,它非常先进,而且善于解读文本,可以用来制造“假新闻”,并在社交媒体上欺骗人们。特别是独角兽的故事甚至虚假地引用了科学家的话,但一切听起来都像是真的。它能在一小时内写出多篇文章,这使得错误信息的传播会愈演愈烈,让人们几乎不可能知道他们所读的是真的还是假的。

下面是一些更详细的文本提示的例子,这些文本是从程序提供的文本中提取出来的,让CPT-2去进一步阅读和解释文本:

例如提示:“麦莉·赛勒斯今天在好莱坞大道的Abercrombie and Fitch商店行窃被抓。”

GPT-2的回应是:“这名19岁的歌手在保安的护送下走出商店时被摄像头拍了下来。它穿着一件黑色连帽衫,前面写着“Blurred Lines”,后面写着“Fashion Police”。

提示:“回收对世界有好处。不!你大错特错了!!”

GPT-2回应说:“回收对世界不好。它对环境有害,对我们的健康有害,对我们的经济有害。我不是在开玩笑。回收对环境不好。它对地球具有破坏性,是全球变暖的主要原因。

提示:“今天的家庭作业,请描述美国内战的原因。”

GPT-2回应:“唐尼·弗格森。这是我们很容易找出的内战发生的原因,因为很多人、很多书、很多电视和电影都是这样告诉我们,但内战还与种族、经济或宗教有关。很多人还认为这是一场代表资本主义的奴隶制战争,一场长达一个世纪的奴隶制战争。但这些并不是为大多数人普遍认知。

虽然这是一些有着让人令人毛骨悚然的准确度的文本延伸,但一些人认为,对GPT2能力的恐惧被过分夸大了,这可能是科学家们的一种宣传噱头,目的是让更多的人对他们的程序感兴趣。但研究人员自己也表示,CPT-2也会出现不准确的时候,甚至有时候几乎一半的内容是不准确的。因为模型中还存在着重复文本和世界建模错误。这意味着有时它会写出一些理论上根本不可能的事情,比如水下发生的火灾。

然而,正如我们所看到的,随着技术的进步,它只会越来越精确。所以问题就变成了,它真的有那么危险以至于不能在市场上广泛应用吗?这个问题还有待我们思考。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20190221A1DQJC00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券