一个较少人类机器人的案例

图片来源:Lagarto Film / Shutterstock

3月,美国银行推出了新的应用内AI智能助手。名为埃里卡的机器人大概名字来自“美国”。埃里克肯定也足够了,但给客户服务机器人一个女性绰号和声音已经成为惯例。

想想Alexa,Cortana和Siri。即使加载屏幕上的网络聊天,也可能会出现一个女性的名字。

要找到他们的男性同行,进入更加技术化,知识化的空间。想想IBM Watson(与IBM HR助手“Myca”相比)和“法律顾问”bot ROSS。有金融分析师Kensho和银行聚合商Ernest。

在分工方面,人工智能有一个偏见问题 - 而不仅仅是性别问题。这些机器人的音调和声音也具有显着的同质性。毕竟,人工智能承担了它“提供”的数据的规范,关联和假设,在AI机器人的情况下,是那些正在进行建设的人。

一种解决方案是通过使机器人在性别,种族和文化背景的表现中更公平和更公平来识别和纠正这些偏见。例如,Waze等公司为用户提供了一系列机器人身份选项。

另一个是停止建造“人”机器人。给机器人提供人名和身份源于这样一种信念,即这样做有助于人性化,鼓励人们接受和互动。但是现在,机器人和智能设备已经普及,因为在很大程度上打破了使用障碍。不再需要创建“人类”机器人,希望人们能够使用它们。

为何如此人性化?

考虑到人工智能在哪里,为什么不让机器人成为机器人呢?这既管理了对机器人性能的期望,又最大限度地减少了偏见的影响。(当然,人类总会把自己的偏见带到某种情况。)

例如,Kasisto的Kai bot是围绕“僵尸”身份构建的。它的沟通和互动是由此形成的,而不是企图成为人类。Capital One的Eno机器人采取了类似的方法,并且是小心性别的。通过使你的机器人明显像机器人一样也向用户发出信号,他们不一定期望进行人际对话,这在你认为今天的AI在谈话超出其核心领域专业知识时挣扎时至关重要。

然而,即使是“僵尸”方法也有其自身的问题。隐性偏见很容易延续,特别是考虑到“僵尸机器人”仍然受到人类创造的框架的支撑。这种身份也很难在基于语音的交互中维持,因为语音更可能被编码为性别和文化标记而不是文本。

太小就了

至少在理论上,“机器人”身份剥夺了明显的性别和文化偏见。但我们可以更进一步,从我们的机器人中剥离身份和个性。

我们为什么要这样做?如今大多数机器人都以精简的方式解决问题。灌输一个具有个性和丰富的机智反击的机器人实际上可以产生相反的效果:它可以产生摩擦。

想想你在线聊天聊天的时间。前几条消息通常是介绍性的。删除此序言并提示用户只需将问题键入框中实际上是一种更简单的方法。尽管有“聊天机器人”这个名字,但用户并不在那里聊天。他们在那里解决问题。

一个新的图灵测试

虽然个性可以帮助建立对数字助理的信任,但是一次性互动不需要相同水平的信任。在这种情况下,一个超人类机器人实际上正在解决错误的问题:它专注于移情而不是交互本身的需求和背景。在方便至上的地方,个性应该退居二线。

同样,高度个人或敏感的互动也可能受益于低个性机器人的使用。如果他们不觉得自己被评判,那么人们就更有可能自由而诚实地说话 - 机器不会判断。输入风格也很重要。由于缺乏变形,文本可以感觉比语音更公正。虽然拐点在某些交互中是有益的,但在其他交互中,使得音调错误可能会比没有交替更糟糕。

具有“个性”的机器人也是公司及其价值观的精确镜像,而人类工作人员则不是这样。它的动机,个性特征和行为都是由设计所塑造的,消费者可以很容易地将机器人视为品牌的延伸。如果出现偏见或不良行为,这可能会产生声誉后果。另一方面,一个没有个性的机器人可能是一个风险较低的命题。

回归本源

随着数字助理的制造者试图找到让他们的机器人更能反映当今世界的方法,也许答案很简单。

通过让机器人成为僵尸程序,我们消除了嵌入刻板印象的风险,并消除了因我们自己的偏见而产生的失误。当我们把机器人带回基础时,我们所担心的只是解决手头的任务 - 而且一如既往地解决数据问题。

Paul Barba是Lexalytics的首席科学家,他专注于应用力量倍增技术来解决与人工智能相关的挑战并推动AI的创新。他在NLP和机器学习的各个领域拥有丰富的专业知识,从情感分析和机器总结到遗传编程和自举算法。

文章来源:www.xixi.ai(息息人工智能)

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20180723A0PLKQ00?refer=cp_1026
  • 腾讯「云+社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 yunjia_community@tencent.com 删除。

扫码关注云+社区

领取腾讯云代金券