当AI模糊了现实同虚幻之间的界限,更加拟人化的它们将带来什么

当AI模糊了现实同虚幻之间的界限,更加拟人化的它们将带来什么

伦敦大学学院的博士后研究员海恩斯与人合著了一篇论文和一份应用程序,展示了AI如何学会模仿人的笔迹。这个应用程序使用深度学习算法来分析和辨别作者的笔迹和其他因素,比如间距和不规则性。然后,应用程序可以提取任何文本,并用目标作者的笔迹复制它。开发人员甚至增加了一种随机性度量,以避免出现不可思议的谷效应——当我们看到一些几乎不是人类的东西时,我们会产生一种奇怪的感觉。

作为概念的证明,UCL的研究人员利用这项技术复制了历史人物的笔迹,同样的技术也可以应用于其他笔迹,这引起了人们对该技术可能用于伪造和欺诈的担忧。一个法医专家仍然能够检测到我的手写体文字是由我写的,但它很可能会愚弄未经训练的人,海恩斯在接受《数字趋势》采访时承认了这一点。莱瑞伯德是一家总部位于蒙特利尔的初创公司,该公司利用深度学习开发了一种能综合人类声音的应用程序。

Lyrebird需要个简短的录音才能开始模仿某人的声音,虽然在听起来令人信服之前还需要更多的录音。他们之前发布的样品录音很粗糙,很明显是合成的。但是,随着技术的进步,这种区分将变得更加困难。任何人都可以注册Lyrebird并开始制作假录音;这个过程甚至比FakeApp更容易,计算是在云环境中进行的,对用户的硬件造成的压力更小。这种技术可以用于可疑的目的,这一事实并没有让开发人员感到迷惑。

利雷伯德网站上的一份道德声明曾一度指出:语音录音目前被认为是我们的社会、尤其是许多国家司法管辖区的有力证据。但是我们的技术开始怀疑这样的证据是否有效,因为它允许人们很容易地操纵音频记录。这可能会产生危险的后果,比如误导外交官、欺诈,更普遍的是,任何其他因窃取他人身份而引起的问题。英伟达展示了人工智能模仿能力的另一个方面:去年该公司发布了一段显示人工智能算法生成高质量合成人脸的视频。英伟达的人工智能分析了数千张名人照片,然后开始制作假名人。这项技术可能很快就能制作出逼真的视频,以“不存在的人”为主角。人工智能的局限性许多人指出,在错误的人手中这些程序会造成很大的伤害,但当代AI能力的程度常常被夸大。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20180608A1TKY500?refer=cp_1026
  • 腾讯「云+社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 yunjia_community@tencent.com 删除。

扫码关注云+社区

领取腾讯云代金券