首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

人工智能正走向一条更黑暗道路?有专家称智能系统存在社会偏见

趣味探索讯 在21世纪的今天,智能手机,智能家居和智能城市正在影响我们的生活和工作,人工智能(AI)正在以引人注目的方式重新配置人类世界。

不论是工业生产,还是餐饮服务,都能看到人工智能的身影。有专家乐观预测,到了2030年,人工智能将为世界经济增加15万亿美元。不过有人担心世界失业率会接近50%。

然而让人更担心的是,人工智能(AI)存在巨大潜在风险,比如恶意培养杀手机器人,因此有科学家担心人类会因此而灭绝。

另外,有专家发现人工智能系统存在偏见,可能会加剧现有社会偏见的倾向,从而对社会制造出破坏性影响。

比如现在最先进自动机器翻译系统会产生性别歧视,最先进智能识别系统竟将黑人识别为大猩猩。

2019年10月11日,在最新的谷歌翻译系统中,比如输入:

The women started the meeting. They worked efficiently。

结果输出:Les femmes ont commencé la réunion. Ils ont travaillé efficacement。

从表面上看,意思都是妇女们开始开会,他们有效地工作。但是Ils在英文语法中代表为男性他,所以翻译过来的语法是错误的,这说明人工智能(AI)男性他被自动化系统设为默认值。

人工智能(AI)之所以会出现这类问题,是因为智能系统使用一种类似神经网络的数学模型来获取数据。

如果输入给智能系统的数据集本身存在着偏见等问题,那么智能系统在输出结果就会暴露偏见。这样一来,可能使诸如妇女,少数民族或老年人等群体边缘化,从而加剧现有社会失衡。

当然,这只是人工智能(AI)暴露一个方面问题,可能更严重问题还在后面。有专家表示,人工智能正走向一条更黑暗道路。更有趣的科学探索内容请关注唯一微信公众号:有趣探索

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20191015A0KUOC00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券