【科技:我们可以把人工智能放在盒子里吗?】导语:我们知道如何处理可疑包裹尽可能仔细!这些天,我们让机器人承担风险。但是,如果机器人存在风险呢?一些评论家认为我们应该将AI(人工智能)视为一种可疑的包装,因为它最终可能会在我们的脸上爆炸。我们应该担心吗?爆炸情报?当被问及是否会有像人一样聪明的电脑时,美国数学家和科幻作家VernorVinge回答说:“是的,但只是简单地说”。
人工智能是一个低成就者。乐观主义者有时会对人工智能领域过去非常曲折的事实感到安慰。在承诺的能力未能实现之后,繁荣和炒作的时期与所谓的“人工智能冬季”混合在一起-资金和利息减少的时期。有些人指出这是因为证据机器永远不可能达到人类的智力水平,更不用说超过它们了。其他人指出,关于比空中飞行更重的事情可能也是如此。
这种技术的历史也充斥着反对者(其中一些人显然拒绝相信莱特兄弟成功的报道)。对于人类层面的情报,对于比空中飞行更重的飞行,反对者需要面对大自然管理伎俩的事实:分别思考大脑和鸟类。一个好的反对论证需要一个理由认为人类技术永远不会达到人工智能的标准。
悲观主义要容易得多。一方面,我们知道大自然设法将人类智能放在头骨大小的盒子里,而且这些头骨大小的盒子中的一些正在弄清楚大自然如何做到这一点。这使得很难保持酒吧永远无法接触人工智能。相反,我们似乎正在提高我们对达到目标所需要的理解。
在技术方面,我们似乎在硬件和软件方面都朝着标准方向发展。在硬件领域,摩尔定律预测我们可以在芯片上适应的计算能力每两年增加一倍,显示出放缓的迹象。在软件领域,人们争论“强AI”(人工智能匹配或超过人类智能)的可能性,但“狭义AI”(限于特定任务的AI)的大篷车稳步前进。计算机一个接一个地接管以前被认为是禁止人类智力和直觉的任何领域。
我们现在拥有的机器在国际象棋,琐事游戏,飞行,驾驶,金融交易,面部,语音和手写识别等领域都胜过人类表现,这个名单还在继续。随着硬件的不断进步,狭义AI的这些发展使得更难以捍卫计算机永远不会达到人类大脑水平的观点。陡峭上升的曲线和水平线似乎注定要相交!
领取专属 10元无门槛券
私享最新 技术干货