学习
实践
活动
专区
工具
TVP
写文章

当机器学习时,人类会失去控制

人们对人工智能表达出极大的恐惧。有人担心 人工智能会变得超人,并杀死 我们所有人。其他人担心,人工智能领导自动化将使超过1亿 工人流离失所,并破坏经济。坦白地说,这两种情况都有可能发生,因为AI的简单道理是机器学习时,人会失去控制权。

当前,自学习AI并不特别复杂。还记得AI的埃隆·马斯克(Elon Musk)所说的向公众发布太危险了吗?好吧,它发布了,真令人失望。当谈到他的公司时,马斯克要比吹毛求疵的人更为炒作。但是AI越来越先进,Deepmind的项目正在学习象棋这样的游戏, 并且不知道规则,这些AI击败了人类玩家。

AI可能缺少基础?

人工智能正在进步,但它可能会缺少一个阻碍其达到人类般的一般智能的技术。《科学》杂志上的一篇文章 分享了一个三岁孩子能够学习并将最近获得的知识快速应用于新环境的故事。该帐户中的孩子属于 认知科学家,RobustAI的创始人加里·马库斯( Gary Marcus)。马库斯认为,人类无论是在出生时还是从童年开始就具有本能,这使我们能够抽象灵活地思考。

最初的直觉是目前大多数AI尚未编程的东西。我可以想象用任何与人类相近的直觉来编程AI都是艰巨的任务。但是,我缺乏所谓的“基本本能代码”,这在我脑海中产生了一个问题,人们无法诚实地知道我们狭窄(但正在扩展)的AI的想法。

我看到了AI与人类之间的关系在某种程度上类似于人类与工作动物之间的动态关系的未来。一个盲人和一个导盲犬是一个团队,但他们都不了解对方脑袋里发生了什么。

当我们了解AI的想法时

今年早些时候, 《大西洋》 详细叙述了一个犯罪量刑的AI的恐怖故事。这篇文章记载了哥伦比亚特区公设辩护律师事务所Rachel Cicurel的工作经历。AI将Cicurel的客户标记为“高风险”,检察官将缓刑作为其客户的一种选择。

从大西洋:

“ Cicurel很生气。她提出了挑战,以查看报告的基本方法。发现的结果使她感到更加困扰:D的风险评估增加是基于几个似乎带有种族偏见的因素,包括他居住在政府中这一事实。补贴住房,并对警察表达了消极态度。”

最终,Cicuelel得知AI从未经过科学验证。唯一的评论来自研究生的未发表论文。案件的法官取消了测试。尽管如此,人工智能仍被用于刑事司法,并发现了其他缺陷的例子,可能还会有更多的人受到不公平的伤害。

并非所有AI都说明他们的想法

Cicurel能够查看并查看AI将客户标记为“高风险”的基本方法。并非每个AI都具有解释其如何制定决策的能力。如果Google的任何团队中的任何人都能解释搜索引擎的工作原理,我会感到震惊 。我有99%的把握确保Google没有按钮可以打印出机器学习层用来整理搜索结果的底层方法。

人们每天都在使用普通用户无法理解的技术,但是不知道电视或汽车的工作方式与不知道软件如何做出改变人生的决定有很大的不同。我们可能不在乎AI是如何 产生艺术的,当将AI用于 医学筛查时,潜在的思维过程并不重要。

但是,如果将AI用于犯罪宣判之类的任务,那么人们能够理解该软件的基本思维过程就至关重要。至少我们应该从概念上理解AI的基本“本能”,而不是放弃对大量数据的训练和强化学习技术。

(来源:黑客中午)

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20191202A06Y3100?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

关注

腾讯云开发者公众号
10元无门槛代金券
洞察腾讯核心技术
剖析业界实践案例
腾讯云开发者公众号二维码

扫码关注腾讯云开发者

领取腾讯云代金券