当AI听起来像真人一样的时候我们应该担心吗?

在谷歌助理打电话预约理发的时候,令人惊讶的是接到电话的人似乎并没有怀疑他们正在与人工智能交谈。这对谷歌来说是一项巨大的技术成就,但它也带来了潘多拉的一系列道德和社会挑战。

例如,谷歌是否有义务告诉人们他们正在与一台机器通话?模仿人类的技术会削弱我们对所见所闻的信任吗?这是技术特权的另一个例子,知情者可以减轻他们不想要的机器的无聊对话,而那些不知情的人不得不浪费自己的时间来应对一些机器人?

谷歌没有多说关于这个功能如何工作的细节,但是随附的博客文章增加了一些重要的上下文。首先,Duplex不是一种喋喋不休的AI,能够进行开放式的对话,它只能在封闭的领域进行交流 ,这些交换是功能性的,对于将要说的内容有严格的限制。比如:你想要一张桌子?多少?在那一天?什么时间?好的,谢谢,再见。就是这么简单!

AI在公式化的情况下工作可能会表现得很好,但是处理非语境语言对话是一个非常难的问题,不过,当人工智能不理解或让对话回到正轨时,也有很多技巧可以掩饰。

谷歌的演示之一完美地展示了这些技巧的工作原理。人工智能能够解决一系列的误解,通过重新编写和重复提问来实现。对于与人类交谈的计算机程序来说,这种事情很常见。他们谈话的片段似乎显示出真正的智慧。谷歌的博客文章提供了一些有趣的细节,列出了Duplex将使用的一些口头蜱。这些包括你能听到我吗?数字是212、对不起,你能重新开始吗?等。

值得注意的是,谷歌称Duplex为“实验品”。它不是一个完成的产品,也不能保证它会以这种形式广泛使用,或者可以广泛使用。

谷歌在其博客文章中表示,Duplex具有“自我监控能力”,可以识别谈话何时超越其功能在这些情况下,它会向可以完成任务的人类操作员发出信号。

但是要如何通知人们他们正在与机器人谈话?告诉某人他们正在与AI交谈是一个棘手的问题。如果AI开始打电话说“你好,我是机器人……”,那么电话的一端很可能会挂断。更微妙的指标可能意味着限制AI的声音的真实性或在通话期间包含特殊的声调。谷歌希望让人工智能的声音与人类不同,这与我们将臭味添加剂添加到通常无味的天然气中的原因相同。

如果机器人可以自由地构成人类,恶作剧的范围是不可思议的; 从诈骗电话到自动骗局。让公司自己管理这些还不够,还需要制定新的法律来保护公众。如果我们部加以规范,就可能会有一些处于不如谷歌这种显眼位置的公司将利用这项技术。

如果这种技术变得普遍,它会产生其他更微妙的影响。闲聊,无论是在电话或街头对话 ,都具有无形的社会价值。如果我们给人们另一种避免社交互动的选择,无论多么微小,我们会失去什么?

如果我们无法分辨手机上的人与机器人之间的差异,我们是否会怀疑所有电话交谈?我们可能会在通话过程中开始切断真实的人,告诉他们:“闭嘴,让我跟人说话。”谷歌不是唯一开发这些服务的公司,它当然不会是唯一使用它们的公司。但是在在机器人开始为我们说话之前,我们需要谈谈所有这些。

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180510A0OMNE00?refer=cp_1026
  • 腾讯「云+社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 yunjia_community@tencent.com 删除。

扫码关注云+社区

领取腾讯云代金券