首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

人工智能学会了影响人们的意见

人工智能学会了影响人们的意见

来自芝加哥大学(美国)的科学家进行了一项研究,其中他们展示了如何使用AI来编写复杂的假评论。这种评论无法通过现代方法与真实评论区分开来,毫无疑问的读者发现它们非常可靠。

关于餐馆的评论是在经常性的神经网络(深度训练技术)的帮助下产生的,这些网络之前已经在网上提供了成千上万的真实评论。

根据研究人员的说法,生成的反应几乎与真实反应无法区分。因此,该作品的作者表明,用户不仅不识别虚假评论,还认为它们与人们写的真实评论一样有用。

最后,可能最重要的是守卫。因为这实际上意味着由AI编写的推荐书履行其主要功能 - 它们有目的地影响人们的意见。

值得注意的是,在这样的评论中,很少发现抄袭(在软件的帮助下)。这是因为AI故意生成它们,并没有从这些评论中提取出来。

今天,有一个相当大的地下工业用于撰写人们的虚假评论(为了钱)。然而,作为芝加哥大学教授Ben Zhao(Ben Y. Zhao)在接受Business Insider采访时,AI的实施可能会破坏它。科学家说,他还不知道这个算法在这个行业中的使用。但是不能保证某人不会提出类似的东西,也不会用于雇佣军的目的。

与此同时,研究人员写道,神经网络的反应仍然不理想。事实证明,该算法使用了一组较小的字符 - 并且不难发现。然而,根据这项工作的作者,未来的神经网络可能更复杂,因此,它们产生的响应将更难以检测。

Jao指出,这不仅仅是关于餐馆的虚假评论:这些技术通常会动摇我们对真实和非真实的看法。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20190810A0927000?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券