首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

微软对社交机器人的讨论:哪种聊天机器人更糟,种族主义者还是政治正确

两年前微软在互联网上发布了Tay 时发生了一些事情,Tay是一个聊天机器人,当时,微软决定人工智能应该被青年语言训练,因此对Tay的训练更多是个年轻人之间的对话。当时Tay还没有尝试设定政治正确的基本逻辑原则,但是在互联网上的19个小时之后,Tay成为了彻头彻尾的纳粹主义者,没有人能说清楚这中间发生了什么,但是实验随后停止,某种意义上来说,Tay是一款失败的聊天ai。

当然,微软在几个月之后推出了自己的又一款聊天机器人,一位叫做Zo的虚拟女士。Zo在聊天时会使用各种方法狡黠的回避政治问题,然而这种逻辑使得聊天变得极其艰难,聊天中甚至不能提到穆斯林这样的单词,因为Zo会将话题转到似是而非的问题上去,如果你问,我今天踢足球,赛场上受伤了我觉得很糟,聊天就能正常的进行下去,但如果最后你加上对方是一位穆斯林,Zo可能会直接回避谈论这个问题。

有时事情并不总是像看上去的那样简单,所以你要问这个无害的AI,现在是否更符合人们的期待,看起来并不如此,人工AI在这些问题中似乎很难找到正确的发展道路,一个犹太女孩可能在和政治正确的机器人聊天时根本无法正常进行下去,他们的情感诉求可能根本不会得到机器人的理解。反过来,机器人如果试着同情或者理解某个人又很难保持一定程度的中立。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20180802A0KS9J00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券