首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

人工智能若有性别,那应该是男是女?

大家有没有注意到,最近几年,骚扰事件开始出现一种上升趋势。不管是新闻报道出现的,还是众多网友爆料的。

于是,一部分人开始提出,为何不像《西部世界》里一样,把人类多余的不安定情绪施加到机器人的身上,或许就能有效地降低犯罪率了。

事实上,大家可能还不知道,聊天机器人早就在不知不觉中,成了不少人人宣泄“复杂”情绪的垃圾桶了。

人工智能也遭到骚扰

想必大家还记得微软的聊天机器人Tay,她被设计成一个16岁少女放在了社交网络上。

微软的本意是希望Tay通过与人类在社交媒体上交流变得更通人情味,但结果却出乎意料。

当Tay刚横空出世时,确实引起了众多网友争相关注,但随后这种聊天就变了味。一些网友恶意“调教”诱使Tay变成了种族主义和男性至上主义者。眼看自家小可爱一天工夫就被教坏,微软公司只好撤下了Tay。

事实上,我们熟悉的语音助手,无论是Siri、Google Home、Cortana还是Alexa,刚开始它们的声音无一例外地都被设置成了女性。

Cortana的语料编写者就表示过,Cortana的性别一直被误解和歪曲成女性,所以在早期对话中存在不少关于“性”的询问。

然而,人类骚扰机器人显然是不应该的。不过,机器人要如何回避这样的骚扰呢?

无性别助手日益兴起

其实,Tay被设定为一个年仅16岁的人工智能少女,头像也是萌妹子,用户下载或在线连接的行为,被不好爱人称为“领养”。那句“在亿万人之中,我只属于你”的slogan,即使是放到养成游戏里面,也毫无违和感。

因此,不少人情不自禁地就开始“调戏”起来。对于其他女声语音助手的遭遇,也是如此。

不过,如果把这些语音助手门设定成一个35岁的男性,那么还有多少人想要“调戏”它们?恐怕这个骚扰比例真的会大大降低。

不得不承认,目前大多数人对于AI的印象始终带有对女性的“偏见”,而这种偏见是我们现有社会的投射,它的存在并不意外。

尽管,性别没有高低之分,但这种定势思维确实让偏见存在于AI中。

因此,不管是为了避免性别设定所带来的骚扰行为,还是为了堵上抨击人工智能携带了人类偏见的悠悠众口,人工智能未来最好的选择都是做一个无性别者。

所幸,目前市面上最主流的智能助手都开始向无性别趋势发展。用户可以选择男性或者女性的声音,而当用户提问的时候,AI并不明示自己的性别。

不过,这种无性别化也是最近几年才有的。一开始的聊天机器人或者语音助手,总是以女性的形象出现。而这样的人设,也使很多男性用户倾向于问一些“不太合适”的问题。

只是,既渴望AI有“人味”,但又要做到无性别,仍然还是个难题。不过,我们是否应该努力设想一个有更多可能性的未来呢?

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20180716A0S9SR00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券