首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

科技永无止境,会毁灭人类是“强人工智能”,这也是名人科学家拼命阻止的原因

kkkccc:弱人工智能是很容易实现的,但强人工智能和超人工智能离我们还太过遥远,首先最需要攻克的应该是独立意识和自由意志的问题。然而让哲学家头疼了这么久的难题 怎么可能用科技这么随便就解决了呢。

皆末:人类为什么要去搞威胁自己生存的“强人工智能”?从老百姓的朴素生活观点来看,人类研究新科技是为了帮助人更好的生活,技术都是有利又有弊,只要这个技术的弊是可控的,人类就会研究、使用这个技术。如果这个技术不可控(比如人体克隆、比如核武器),那人类根本就会想办法禁止去做这个事。既然很多人说“强人工智能”统治人类多么多么可怕,那么人类怎么可能会让事情到那一步?在技术达到那一步之前,社会的规律就会阻止危险的出现了吧?虽然不懂技术方面的事,但是“威胁不威胁”这件事并不是“科技”的问题,而是“社会”的问题吧。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20180530A13EU900?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券