这两天,数十名顶级AI专家在人工智能安全中心(Center for AI Safety)网页上联名签署了一份声明,这份声明只有一句话:
“减轻人工智能造成的灭绝风险,应该与流行病和核战争等其他社会规模的风险一起成为全球优先事项。”
这群最懂AI的人,已经被他们自己整出来的玩意儿给吓着了,我们这些普通人,貌似只有吃瓜的份。
很多年前我就想,为什么冷兵器时代持续了几千年,但就在最近两三百年,人类科技突然就开始狂奔了?到现在也没搞明白。难道是因为牛顿、爱因斯坦、图灵这类人出生的太晚?
假如一个人出生在李世民的时代,活了200岁,活到最后会发现,社会并没有多大变化,好像也没什么意思。
假如他出生在慈禧老佛爷的时代,同样活200岁,那可不得了,没准他能看着人类用机器人灭了自己呢,瞧着这花花世界一天一个样,得活到老学到死,也是够累的。
前天,BBC有一篇报道说,人工智能分为三个阶段:
弱人工智能阶段
这个阶段,机器只在它被编程的特定领域学习,专注于单一任务,它可以在这个领域超越人类。比如阿尔法狗,下围棋已经是打遍天下无敌手。
一句话,只要它不能自己做决定,它就是弱人工智能。因此,ChatGPT也还是弱的,也就是说,我们现在仍处于这个阶段。
强人工智能阶段
这个时候,机器能够完成人类所能完成的任何智力任务,与人类具有相同的智力能力。它能独立思考了?!
超人工智能阶段
此时,人工智能超过了人类智能,而且,当我们到达第二阶段时,我们将很快进入这个最后阶段。
这一阶段,人工智能在几乎所有领域,包括科学创造力、一般智慧和社交技能,都远远超过最优秀的人类大脑的智能。
细思极恐。
真到了第三阶段,我们人类还能保住地球主人的宝座吗?
人工智能可以自我迭代,也就是说,人类创造出来它之后,它自己就可以更新自己:它能设计出更牛逼的第二代自己,然后第二代设计出更更牛逼的第三代自己,如此往复,子子孙孙无穷尽也,越来越powerful。
比我们聪明的人工智能真要是跑起来,我们铁定摁不住。
大家记不记得,2014年,霍金就说过:“人工智能的全面发展可能意味着人类的终结。”
但是,前几天,在联合国中文日上,刘慈欣说,别怕,这种毁灭不太可能发生。
因为我们所能提供的算力是有限的。它的迭代到一定程度,我们的算力不能够支持它。我们人类的无能是我们最后的屏障。
我就想,人工智能都那么牛逼了,我们人类的算力不能支持它,它就自己造出来能支持它的玩意儿呗,比你聪明的物种还要能被你的短板限制了不成?
但愿是我想错了。
但愿霍金只是好的个科学家,不是个好的预言家。
但愿大刘不只是个好的小说家,还是个好的预言家。
领取专属 10元无门槛券
私享最新 技术干货