首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

也许我们对人工智能除了有99%的信任外,还应保持1%的戒心!

人工智能的概念自从被提出来以后,就备受关注。现在,这项新兴的技术也已经出现在了我们生活的方方面面,涉及各种各样的应用程序,比如各类搜索引擎、打车软件以及智能助手Siri或Alexa,这些都是人工智能可应用的场景。在某些人看来,人工智能是生活的一种添加剂,可以提高我们的生活质量,并为一些传统企业带来新的生机;但对另外一部分人来说,人工智能会带来一个恐怖的未来,或许我们人类早晚有一天会被机器取代。所以,在这种情况下,我们究竟该不该信任人工智能呢?

很早之前,科幻小说就已预料到了机器智能的兴起。而现在,新一代自主学习的机器人已开始重塑我们生活的方方面面:人类无法理解的大量数据正在被创建、解释,并在个人助理、智能设备、广告以及海量的应用程序中出现。

与此同时,随着人工智能的发展越来越成熟,一些科幻电影里的场景也正在成为现实,但从极端意义上想,这些人工智能会不会在某一天突然失控,成为统治人类的“怪物”呢?或许在有些人看来,这些都只是科幻场景罢了,但事实上,人工智能与人类肩并肩的日子也不远了。

为了保护人类,早在1940年科幻作家阿西莫夫就提出了“机器人三定律”,阿西莫夫也因此获得“机器人学之父”的桂冠!

机器人三定律:

第一条:机器人不得伤害人类,或看到人类受到伤害而袖手旁观。

第二条:机器人必须服从人类的命令,除非这条命令与第一条相矛盾。

第三条:机器人必须保护自己,除非这种保护与以上两条相矛盾。

以上这些硬性限制看似不可违背的。如果违背了这些硬性限制,人工智能或者说智能生命的所有相关代码段将会全部崩溃,它将会直接死亡。但是在这里面却有一个漏洞存在,这些硬性限制,虽然不可以违背,但并不代表不可以寻找漏洞。

自从图林提出了理想的智能计算机后,人们对如何制造人工智能机,以及最终达到模拟人类智能的问题,进行了艰苦的探索。人们曾试图用仿生学的方法,制成一种“类大脑”的智能机器。但由于人脑是我们已知结构中最复杂的结构,仅大脑皮层就有1000亿个神经元,每个神经元又通过几万个突触与其他神经元相联系,组成错综复杂的神经网络。因此,从模拟具体构造的途径来模拟大脑智能,简直就像“老虎吃天”一样难。

1956年,美国心理学家纽厄尔等人提出了逻辑理论机程序,使计算机不再只是根据事先编好的刻板的算法程序解题,而是将人脑在进行演绎推理时的思维过程、规则和所采取的策略、技巧等总结成规律,编进程序。并且在计算机中先存贮一些公理,再给它一些推理规则,然后让机器自己去探索解题的方法。这种程序不是机械式程序,而是启发式程序。利用这一程序,计算机证明了一些数学定理,而且还可以学会下棋。

以脑为原型的结构模拟和通过软件实现的功能模拟,是目前人工智能研究的两个主要方向。尽管到目前为止,达到计算机具有思维能力的目标仍然遥远,但是,人们已经看到了希望的曙光。目前,人们在机器视觉和机器听觉的研究方面已取得巨大进展,在感知能力和思维能力发展的基础上,智能机器人应运而生。智能机器人具有感知和理解环境、使用语言、进行推理和操纵工具等技能,并且它们还能通过学习适应环境,模仿人完成某些动作。

如果将来某天人工智能真的为了所谓整体利益开始杀人,那怎么办?因为意识到了人工智能的不可预估性,真人版“钢铁侠”埃隆·马斯克是这么做的:创立人工智能公司Open AI,希望制定人工智能道德准则,成为这一领域的监管者,将其引向对人类更为安全的发展轨迹。

比尔·盖茨同意马斯克的说法,并表示不明白为什么有的人对此并不关心。而霍金的说法则更加消极:人工智能可能将会超过并代替人类,那人类会最终灭亡。

这些名人的警告无疑提醒了我们关于人工智能的可怕的可能性。未来科技会发展成什么样没人能准确预料,也许我们现在也只能在这些电影里去做一些幻想。虽然目前人工智能的应用还比较初级,但未来会像电影里一样被普及是一个必然的趋势。

最近,谷歌人工智能的专家接受采访说:虽然目前人工智能的能力还太有限,但不排除在未来十年“天网”将成为可能。不禁让我想到电影《终结者》里,天网就是在2029年统治了地球。离现在......正好十年!

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20190319A0CVJC00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券