首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

霍金说人工智能失控,那时人类将面临终结危机,程序总会有bug的存在。大家怎么看?

2017年4月27日,著名物理学家史蒂芬·霍金在北京举办的全球移动互联网大会上做了视频演讲。在演讲中,霍金认为人工智能也可能是人类文明的终结者。

人工智能的出现是一种必然的趋势。人工智能已经全面开花:语音识别,图像分类,自动驾驶,机器翻译等。最终人脑和计算机能实现的事情,是没有本质区别的。

人工智能未来可以解决世界上的大部分问题,包括人类的疾病、社会的问题等。当然需要适当部署,否则威胁人类的生存。人工智能一旦脱离控制,人类受到进化的限制,将无法与之竞争。跟据霍金的预测,在未来一段时间内,AI在迅速地消灭工作岗位的同时又产生新的工作岗位,如智能驾驶汽车生产相关岗位。

人工智能系统失控的担忧随着超级智能的崛起逐步增强。AlphaGo赢得围棋已经成为现实,人工智能未来的潜力在于加速人类发展的速度,霍金认为未来人工智能甚至有可能终结人类文明。

霍金曾联合科学家们签署人工智能的协议,发表了《为稳定人工智能并从中获益的公开信》。他还建立了伦敦利弗姆休研究中心。号召在研究人工智能过程中规避失控。

霍金站在人类的角度考虑问题不无道理,按照达尔文的进化论,世界的繁盛在于神奇的适应力!曾经统治地球的恐龙当年何其繁盛!如今只剩下博物馆的累累白骨的化石。

在人类历史的长河中,也许我们下一步的进化是人类生物体和人工智能的合体,如果我们本身不进化,止于”人类”,固步自封,类似德国二战宣称的” 雅利安人种”如何纯正的话,那就是真的人类毁灭了,试想:人类如果不更好的驾驭人工智能,利用人工智能来推动”人类文明”的达到新的高度的话,一旦星际高等智慧生物入侵,人类文明就真的毁灭了!

大家对人工智能有什么看法?欢迎在下方留言讨论。

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180316A0SW8Y00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券