人工智能想要更好的发展?必须教AI辨是非!

人工智能的发展越来越成熟,在我们的日常生活中也得到了越来越多的运用。AI为我们的生活带来了许多便利与乐趣,但如果现有的AI技术被广泛采用,经济和社会的许多方面也会发生巨大的变化。

随着公司和政府急于部署AI,许多人担心AI和机器学习会造成意外和故意伤害。如何在安全和符合道德规范的范围内对技术保持控制,是我们需要思考的话题。

研究人员发现,当机器学习系统接收远离“完美世界”的数据训练时,它们可以接受令人讨厌的或不受欢迎的行为,比如永远维持性别刻板的印象。现在,有些人正在研究可以用来审计AI系统内部工作的技术,并确保它们在从事金融或医疗等行业工作时做出公平的决策。

今年,科技公司将会提出如何让AI保持人性正确一面的想法,这已然成为人工智能的发展趋势。

谷歌、Facebook、微软以及其他公司已经开始讨论这个问题,并且成立了新的非营利组织Partnership on AI,它将研究并试图塑造AI的社会影响,这也是人工智能发展的里程碑。此外,名为“人工智能伦理与治理基金会”的慈善项目正在支持麻省理工学院(MIT)、哈佛大学以及其他研究AI和公共利益的机构。现在,纽约大学的一个新研究机构AI Now也有一个类似的任务。在最近的一份报告中,它呼吁各国政府放弃使用“黑匣子”算法。

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180411A0F2GI00?refer=cp_1026
  • 腾讯「云+社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 yunjia_community@tencent.com 删除。

扫码关注云+社区

领取腾讯云代金券