首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

我们能相信AI吗?

人工智能(AI)是未来技术的核心。很少有一种技术能像人工智能那样惠及社会。人工智能系统从大量复杂的非结构化信息中学习,并将其转化为可实施的见解。可以想象,在未来的几十年内,由于可以收集和分析的数据量不断增加,人类可以在各个领域取得重大突破,比如医学创新、气候分析和复杂的全球经济管理等等。

就像对人产生信任需要时间一样,对AI系统建立信任也不可能短时间内完成。但这并不意味着单靠时间就能解决人工智能的信任问题。人们总是希望事情会像期望的那样发展,但正像人类一样,AI也会犯错。尽管AI发展如此迅猛,但目前还是处于起步阶段。现在人们接触到的大部分系统都使用深度学习,这只是AI的一种形式。对于发现模式并将其用于识别、分类和预测的应用来说,深度学习是非常理想的选择,比如给购物者提供针对性的建议等。

然而,由于对神经网络模型运行方式的理解不够,这些系统仍然会出现错误,这些错误可能是由于训练集的限制或算法中未知的偏差造成的。这些错误带来了“AI无赖”的可怕结果,比如在Twitter上发布种族主义和性别歧视信息的聊天机器人,或者展示种族和性别偏见的AI程序。对AI系统建立信任需要做什么呢?

为什么社会对人工智能充满怀疑?

人工智能及机器人技术的进步日新月异。今天,机器人可以执行许多人类任务,从地毯吸尘到农业生产,将人类从冗长的时间和密集的劳动强度中解脱出来,并为许多行业带来变革。然而,当提到人工智能和机器人时,特别是在媒体上,人们经常报以怀疑的态度,往往会想到刀锋战士或终结者的场景:人类跪拜在机器人面前。这不是现实,也不可能发生。

还有更多的讨论,比如机器人承担了工作,让人们没有机会谋生。在某些情况下,人工智能将取代人,这就是技术发展的结果。以自动驾驶车辆为例。人工智能将会影响出租车司机和货车司机的生意,也将扰动更广泛的汽车行业,因为它会改变汽车的拥有权——为什么要买车?一辆车一年的运行成本超过2000英镑,还不包括燃料。当然,如果不用考虑停车费、服务费和养车带来的其他费用时,还是可以买一辆。

另外一个值得关注的问题就是智能化问题,有朝一日机器人是不是会比人们更聪明,完全“接管”人类的工作? 机器人已经非常聪明,但他们会发展出像感觉或道德认知这样的能力或智能化行为吗?这是人类和机器人之间的主要区别,人类本能地知道什么是对与错。道德认知并不是AI掌握的东西,而且老实说,将来是否能掌握也是有争议的。这是因为道德规范是没办法通过创建算法实现的。这也突出了AI存在的偏见问题

“算法偏见”就是看似无害的编程会带有来自创作者或数据的偏见,正如本文开头的例子所强调的那样。但简而言之,机器偏见就是人类的偏见。处理这个问题的关键取决于技术公司、工程师和开发人员,他们都采取切实的措施,以防止偶然产生的区分算法。通过算法审核和始终保持透明度,可以确保AI算法远离偏见。

AI系统透明度的重要性

展望未来,技术公司和他们所创建的AI系统的透明度是解决所有问题的关键。仅靠强大的性能不会让人们主动接受AI。的确,当人们想搜寻一家餐厅或一首最喜欢的歌曲时,会发现像Siri和Google Now这样的数字私人助理非常好用,但这并不意味着AI完全被接受了。随着消费者对AI的熟悉程度越来越高,对透明度的认识和需求也会越来越大。如何才能使这些系统变得透明?

AI可以分为两大类:透明和不透明。企业在展示他们AI系统的工作时,首先需要明确他们的系统属于哪个类别。

透明的系统使用自我学习算法,这种方式可以通过评估显示他们的工作内容,以及通过什么方式做出决策。不透明的系统正相反,它只解决自己的问题,并不能显示其推理的过程。

像预测分析这样的功能,属于简单的自动决策,往往遵循相当透明的模式。不透明的人工智能可以超越开发者的梦想形成深刻的见解,但它也会从开发者手中夺走一定程度的控制权。例如,使用Google语音识别或Facebook脸部识别,算法大多很精确,但人们无法解释其工作原理。因此,从长远来看,需要把重点放在系统设计和应用上,这些系统不仅限于思考,而是通过思考去解释,以确保系统完全的透明化。

我们能相信AI吗?

为了对人工智能建立信任,所有人都有责任不断学习和了解行业优势和术语,而科技公司也必须负起责来,确保他们自己创建的人工智能系统是透明化的,明确他们可以做什么。例如,面部识别系统是为了验证一个人的身份,还是也可以分析和记录面部反应?

关于人工智能对社会和文化的影响,还需要进行更多的交流和探讨。例如,未来人类应该有多少时间用于工作?如果某些工作是由机器人完成的,是否应该制定关于工资的相关社会政策?比尔·盖茨还提出了关于机器人是否应该得到报酬以及纳税的问题,以及在未来几十年中资本是否能够在AI时代继续生存的更广泛和复杂的问题。

除了技术以外,机器人的道德规划也必须成为首先需要解决的问题。正如霍金(Stephen Hawking)教授所说:“计算机将在未来100年的某个阶段通过AI超越人类。当发生这种情况时,我们需要确保计算机的目标与我们的目标保持一致。”只有让AI在负责任的状态中不断进步,并保持透明度和充分合作,才能做到这一点。

AI不会消失。它所带来的进步只会越来越多。为了确保对AI建立信任,所有人都应该为确保在可信赖的状态下进行AI的设计和应用做出自己的努力。

权威发布有关Imagination公司CPU,GPU以及连接IP、无线IP最新资讯,提供有关物联网、可穿戴、通信、汽车电子、医疗电子等应用信息,每日更新大量信息,让你紧跟技术发展,欢迎关注!伸出小手按一下二维码我们就是好朋友!

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180227B05LB400?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券