首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

是否应该给人工智能建立道德评判标准

无论我们知道与否,人工智能(AI)已经和我们生活息息相关,密不可分。

例如,IBM正在利用AI来保护环境免受破坏。科学家们正在利用AI解决难题问题。

根据研究人员的说法,AI创造了一个“解决问题能力的窗口”。

澳大利亚国立大学哲学学院院长认为,人工智能技术发展,可以使人们生活更好。

我们可以将AI用于社交产品,但在过去的一两年里,很明显会出现很多意想不到的后果 ,更不用说AI可能会被不法分子用来犯罪,所以我们需要给AI建立道德评判标准,告诉它,什么可以做,什么不可以做。

联合国教育组织指责苹果的Siri、微软的Cortana,以及其他的语音助理。

因为大多数语音助理的讲话都是女性,所以发出一个信号,表明女性是乐于助人,温顺而且渴望得到帮助的人,只需按一下按钮,或者用语音命令,就可以呼唤出语音助理。

它遵从命令并对问题做出回应,无论其语气如何。在许多社区,这加强了普遍存在的性别偏见,即女性容易屈服。

如何解决现有人工智能中存在的这些系统性偏见,我们需要做的是弄清楚如何开发包含民主价值观的系统。

去年,谷歌制定了人工智能原则,以确保其构建的所有AI应用程序满足七个关键目标:对社会有益,避免产生偏见, 测试安全性,对人民负责,融入隐私设计原则,坚持高标准的科学卓越,并用于符合这些原则的地方。

谷歌首席执行官皮采表示,这些原则标志着企业认识到这种强大的技术不加以善用,会产生怎样的后果,如何开发和使用人工智能将在未来许多年内对社会产生重大影响。作为人工智能领域的领导者,我们感到自己有责任做到这一点。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20190916A0FOTZ00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券