避免盲区和偏见,让AI进化帮助人类,而不是伤害

移动互联网时代的热潮已慢慢褪去,似乎我们要走入AI(Artificial Intelligence,人工智能)时代。

现在但凡是个电子产品,宣传时不提自己具有人工智能的属性,仿佛就没有卖点。由此可见人工智能的趋势性和火热性。

现在虽然是AI发展的早期阶段,但是其能做的事情已经有很多。比如下面这张图:

AI可以告诉我们,图中有一位女性,还有一只小狗,AI还能够告诉我们图中的女性在笑,她的头发是金色,图中的小狗张着嘴巴。

当然,对如今的AI来说,这种简单的图片识别已经是小儿科。更进一步,AI正通过深度学习,尝试理解图片表达出的含义,AI会像人类一样猜想:看起来她们的关系很亲密,或许这只狗狗是这个姑娘生活中重要的陪伴。

AI简单来说是表示机器能够拥有像人一样的能力,简单的比如:识别语言,理解语言,看懂图片等等,并以此上升到进一步解决实际问题。人类通过经验的积累、知识的学习,提升自己解决问题的能力。所以,机器要做到人工智能,也需要:机器学习。

有很多种算法来实现机器学习,比如现在基于神经网络的深度学习。虽然实现机器学习的不同算法各有差异,但基本方法都是类似的。首先给机器输入大量的历史数据,机器以人类编程的代码作为指导进行分析学习,形成自己的模型,掌握规律,之后再有新的数据进来,机器能够根据之前总结的模型和规律进行预测,并且不断校正和进化。

虽然AI能够不断的自我进化,但人类设计的深度学习算法,以及最初的数据集合仍是一切的起点。所以AI的进化方向会受人类开发者的编程逻辑、数据集输入的很大影响。更严重是的,开发者在编程时候可能下意识的放入了自己的偏见,导致AI的进化也会带有、甚至放大偏见。

美国的一位开发者曾开发过一款AI人像识别的软件,经过AI不断的自我进化,它能够很好的识别白皮肤人群,但是对黑皮肤人群却无法有效识别。他才意识到,自己的编程逻辑中无意识的带入了黑白人种的偏见,最终反映到了AI的进化之中。

此外,人类的进化是缓慢的,人类从爬行到直立行走就花费了300万年,在这个过程我们有机会去改正进化中产生的问题。但是AI不一样,它的进化速度超乎想象,如果我们在开发AI时,不小心引入自己的认知盲区或下意识的偏见,当我们反应过来想调整了,AI可能已进化到不可控制。

“人工智能危险论”其实早已是陈词滥调,美国很多科技大佬都相继表明自己的担忧。史蒂芬霍金曾说:“AI有能够终结人类”,比尔盖茨也说:“我不明白为什么人类对AI一点也不担心。”,马斯克曾说AI有可能成为人类文明的最大威胁。

但我们真的只能任由AI发展,然后反过来统治人类吗?

这取决我们如何决定AI的进化方向,以及避免在AI的进化过程中放入自己的认知盲区和偏见。如果希望AI进化帮助自己,而不是伤害自己,我们要清晰的定义AI的使用场景以及进化的策略,AI的进化要很好的考虑人类的文化和环境,拥抱不同,不论地理和肤色。

我们现在的做法,决定了AI的将来,以及人类自己的未来。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20190803A0NBZC00?refer=cp_1026
  • 腾讯「云+社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 yunjia_community@tencent.com 删除。

扫码关注云+社区

领取腾讯云代金券