首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

人工智能现在可以模仿人类的行为,会不会进化到危险的地步?

当人工智能系统开始变得有创造力时,它们可以创造伟大的东西——也可以创造可怕的东西。以人工智能程序为例,该程序允许网络用户通过输入音符,与虚拟的塞巴斯蒂安•巴赫一起作曲,生成与巴赫相似的和声,并与之匹配。

由谷歌运行的这款应用程序因具有开创性和趣味性而广受好评。这也招致了批评,并引发了对人工智能危险的担忧。

新兴技术如何影响人们生活的研究,这些问题超出了一个公认的大问题,即算法能否真正创造音乐或艺术。有些抱怨看起来微不足道,但实际上并非如此,比如观察到谷歌的人工智能违反了音乐创作的基本规则。事实上,让电脑模仿真实的人的行为可能会让人感到困惑,而且可能是有害的。

谷歌的程序分析了306首巴赫的音乐作品中的音符,找出了旋律和提供和谐的音符之间的关系。因为巴赫遵循严格的作曲规则,程序有效地学习了这些规则,所以当用户提供自己的笔记时,程序可以应用这些规则。应用程序本身是新的,但底层技术不是。训练用来识别模式和做出概率决策的算法已经存在很长时间了。其中一些算法非常复杂,人们并不总是理解它们是如何做出决策或产生特定结果的。

人工智能系统并不完美,它们中的许多依赖于不能代表全部人的数据,或受人类偏见影响的数据。目前还不完全清楚,当人工智能系统出错或引发问题时,谁将承担法律责任。

然而,现在,人工智能技术已经足够先进,能够近似个人的写作或说话风格,甚至面部表情。这并不总是坏事:一个相当简单的人工智能通过预测斯蒂芬·霍金会使用最多的单词,让他能够更有效地与他人交流。更复杂的模仿人类声音的节目可以帮助残疾人,但也可以用来欺骗听众。例如,语音模拟程序的制作者发布了巴拉克奥巴马、唐纳德•特朗普和希拉里•克林顿之间的模拟对话。这听起来可能是真的,但这种交流从未发生过。

2019年2月,非营利公司OpenAI创建了一个程序,它生成的文本与人们编写的文本几乎没有区别。它可以像《指环王》中的约翰•肯尼迪、托尔金那样写一篇演讲,也可以像学生写一篇关于美国内战的学校作业。OpenAI软件生成的文本如此可信,以至于该公司选择不发布该程序本身。

类似的技术可以模拟照片和视频。例如,2018年初,演员兼电影制片人乔丹•皮尔制作了一段视频,视频中,美国前总统巴拉克•奥巴马说了一些奥巴马从未说过的话,警告公众这些技术带来的危险。

2019年初,美国众议员亚历山大·奥卡西奥-科尔特斯的一张假裸照在网上流传。伪造的视频,通常被称为深度伪造,预计将越来越多地用于竞选活动。

国会议员们已经开始在2020年大选前考虑预防这个问题。像路透社这样的新闻机构也开始训练记者识别深度赝品。公众又如何识别篡改过的视频和音频。一个更大的担忧仍然存在,随着人工智能技术变得越来越复杂,用户可能无法快速学会辨别虚假内容。例如,随着公众开始意识到深度造假,人工智能已经被用于更高级的欺骗。现在有一些程序可以生成假人脸和假数字指纹,有效地创造出制造一个完整的人所需的信息,至少在公司或政府记录中是这样。

目前,这些技术有足够的潜在错误,让人们有机会检测数字造假。谷歌的巴赫作曲家犯了一些专家能发现的错误。例如,当我尝试时,程序允许我进入平行五度,这是巴赫刻意避免的音乐间隔。这款应用还打破了对位的音乐规则,用错误的音调调和旋律。

随着开发人员开发他们的产品,这些错误将变得越来越少。有效地,人工智能技术将会进化和学习。改进的性能有可能带来许多社会效益,包括更好的医疗保健,因为人工智能程序有助于使医疗实践民主化。

给研究人员和公司探索的自由,以便从人工智能系统中寻求这些积极的成果,意味着开发出更先进的方法来制造欺骗和其他社会问题的风险。严格限制人工智能研究可能会遏制这一进展。但是,为有益的技术提供发展空间的代价并不小,无论是制作不准确的“巴赫”音乐,还是欺骗数百万人,都可能以人们目前无法预料的方式增长。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20190406A0C78K00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券