首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

未来几百万人将要下岗!你敢让他安心上岗吗?

没错,这种存在于科幻小说中的剧情如今照进了现实生活中。近日,日本一个机器人提名为多摩市市长候选人,承诺将对所有市民一视同仁,不偏不倚,竞选口号为“为每个人提供公平、 其后,机器人还列举出了自己的几大竞选优势:其一,机器人没有情绪也没有欲望,在处理政务时,既不会夹带私人感情也能防止腐败;其二,机器人不用休息,可以长时间高强度工作;其三,相对人类随着年龄增长的记忆力退化,机器人可以始终保持大量信息存储

从日本AI机器人竞选市长到新西兰机器人“萨姆”,无一不是宣扬其具有公正性、无任何私情。然而,在还未到达“超人工智能”的当下,机器人难以形成自身思想之前,算法的偏见,似乎一直都是难以克服并为人诟病之处。 所谓的“算法偏见”是指在看似没有恶意的程序设计中,却不自觉的带有设计人员或开发者的偏见,或者中拟定程序的过程中,采用的数据是具有一定偏见性的。

这种情况带来的后果是巨大的,例如,Google搜寻被曲解、合格的考生无法进入医学院就学、聊天机器人在推特(Twitter)上散布种族主义和性别歧视信息等。 算法偏见造成最棘手的问题之一是,从事程序设计的工程师,即便本身没有种族、性别、年龄歧视等倾向,也有可能造成偏见。AI本质上就是为了自行学习而设计,有时它的确会出错。

《人工智能》里大卫和妈妈的一段对话让人印象深刻。当大卫询问妈妈晚饭吃什么时,妈妈告诉它,机器人是不能吃饭的。大卫却说:“我知道,但是我喜欢和家人一起坐在餐桌上。”正如剧中男主角所说,大卫既然懂得爱,那他也应该懂得恨。当人工智能愈发先进、愈发智能时,人类会不会被科学这把利刃划破双手?

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20180515A167NS00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券