首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

从1到10,你认为人工智能的威胁应该算几级?

今年三月,世上失去了一位伟大的物理学家、宇宙学家、数学家、思想家、哲学家,霍金带着他对于宇宙之谜的理解,去向了另一个我们还没有认知的时空,也留下了不少被人们奉为经典的金句。

其中流传甚广的便是霍金对于“警惕人工智能”的态度。

-------------------------------------

人工智能的概念已经提出很长时间了,有人认为这将是颠覆人类世界的原动力,但也有不少人把它看做一种威胁,无需细说,《终结者》一类的电影早就将其和战争、毁灭联系在了一起。

如果非要以恐怖谷的理论来解释,当人工智能的水平越趋近于人类能够理解的范围时,人们就越会对它产生抵触乃至恐惧的心理。对于未知的、不可控的事物都有天然的畏惧,关乎人类的生存本能。

不过面对现阶段的人工智能,我们大可不必有这样的担心。因为它们仍然是在程序员控制的范围内进行学习。换句话说,凡是存在逻辑的情况,都可以通过给电脑编写各种条条框框的程序来实现。而人脑的先进之处在于,通过对各种直接或者间接经验的总结,可以发现原本不知道的规律。这就好比,我们已经知道了万有引力的公式,便可以轻而易举地通过运算得到想要的结果,而牛顿从掉落的苹果中发现并证明其理论,便是他的伟大之处。

于是乎,当年深蓝在国际象棋上击败了人类选手之时,便有人大呼“狼来了”,如今阿尔法狗在围棋领域独步天下,似乎这头狼距离我们更近了,实则不然,电脑在存储和运算等能力方面的优势让它处理起这类规则清晰的棋类游戏易如反掌,即便某一天它掌握了扑克麻将的玩法,也不必大惊小怪,这些都是程序员的功劳。真正难以想象的是,倘若人工智能根据自己的规则创造一个全新的游戏,那么以人类的领悟能力和理解速度,才是真的没有任何还手余地。

学习,还是创造,将是人工智能从无害调到威胁模式的分界点。

-------------------------------------

也许有人会说,现在不是已经有了机器学习吗,诸如神经网络一类的模型完全可以在啤酒与尿布之间找到先前被人忽略的规律。

诚然。但目前机器学习的数据量还是有限的,算法在编写过程中仍不能剔除人工因素,即便其中有“黑盒子”的问题出现,却远远谈不上拥有自主智能。

不过这也给了我们一个启发:是否可以通过人工智能自我编译的层级来对它的先进或者威胁程度进行评估呢?

如同在安全领域,经过多重编译的密码会给破译者造成足够大的麻烦一样。那么人工智能环境中,其自身产生的“黑盒子”越多,之间的层级关系越深,对于人类而言,从发现到理解再到掌握乃至反制的过程也就越长,难度越大。这好比写有凶手名字的字条被藏在上锁的俄罗斯套娃之中,我们既不知道钥匙被藏在哪里,也不清楚需要打开多少只套娃才能得到结果,其凶险程度可想而知。

利用这种思路,我们也许可以将人工智能限制在一个不够合理但足够安全的范围以内,举例而言,比如我们可以将在同层拥有“黑盒子”不超过5个、向下对接的“黑盒子”不超过3级的算法,其安全级别定义为低;同层拥有5-10个、向下对接3-10级的安全级别为中;同层和下级都出现10个以上“黑盒子”的安全级别为高,以此类推。

必须承认,简单粗暴地对人工智能的程度进行分类,便是以人为的方式为电脑上了枷锁,不可避免的会限制到技术的发展,但人类是一种天生就存在强烈危机感的物种,这可能源于我们曾作为猎物的恐惧,如何对未知事物加以限制乃至是控制,至少在目前是符合人类整体观念的。

曾几何时,人类耗费了数百年,才肯承认地球不是宇宙的中心,然后慢慢学会去接受外星生命可能存在并且比我们更高级的假说;也许,未来的我们也需要足够的时间,方能描绘一个人类与非生命体共存的世界。

----------这里是----------

消息制造机

是个一本正经胡说八道的地方

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180420G1BR6300?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券