首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

人工智能芯片上的NLP算法,是一把双刃剑?重点在人而非技术

英伟达的NLP算法是福是祸

芯片制造商英伟达发布了一款可以整合聊天软件的强大工具,押注人工智能的语言技能将迅速提高。

尽管人工智能在过去十年取得了令人印象深刻的进步,但机器在理解人类语言方面仍然很糟。试着和小爱同学、小度甚至Siri开个玩笑就知道。

为许多人工智能算法提供动力的芯片制造商英伟达认为,这种情况即将改变,并希望在即将到来的爆炸式增长中占有一席之地。

英伟达发布的软件,使得在其硬件上构建能够更优雅地使用自然语言的人工智能程序变得更加容易。并将加速新语言算法的开发,使聊天机器人和语音助手更敏捷、更智能。

英伟达已经生产出最受欢迎的用于训练深度学习人工智能模型的芯片,这些模型擅长图像分类等任务。然而,因为语言的模糊性和复杂性,将像深度学习这样的统计机器学习方法应用到书面或口头单词上要困难得多。

但最近取得了一些重大进展。来自谷歌的两种新的语言深度学习方法Transformer和BERT被证明尤其擅长于在不同语言之间进行翻译、回答特定文本内的问题、甚至生成看起来像人写的文本。这引发了学术界和产业界对利用机器学习提高语言水平的兴趣。

“Transformer和BERT的结合产生了巨大的影响,”哈佛大学教授亚历山大拉什(Alexander Rush)说。拉什专门研究人工智能的子领域,即自然语言处理(简称NLP)。“它基本上在每一个基准测试中都是领先的,它可以让一个本科生用五行代码就能生产出世界级的模型。”

英伟达一直擅长追踪人工智能研究的最新趋势。如果它最新的预感被证明是正确的,那么语音助手可能会从仅仅响应命令,变成可连贯地串起更多的单词。与此同时,聊天机器人也会显得更聪明,而诸如World等文档编辑应用程序和输入法中的自动补全功能可能会开始显示整段文字,而不是接下来的几个字母或单词

英伟达深度学习副总裁布莱恩•卡坦扎罗(Bryan Catanzaro)表示:“我们对语言建模的需求很大。”“如果你看看语言进步的速度,对其进行投资是明摆着的。”

英伟达通过优化在其GPU上训练语言模型的过程来开发软件。这加快了训练人工智能模型的时间,从几天到一个小时内);加速了训练语言模型的性能,从40毫秒到2毫秒左右;并允许数据集规模更大的语言模型训练,英伟达的语言模型,称为威震天,比以前大很多倍,有86亿个参数)。

不作恶

然而,技术进步也可能造成黑暗面。比如更智能的算法亦可以大规模生产更有说服力的、量身定制的虚假评论、社交媒体帖子和新闻报道。其他研究小组已经展示了强大的语言模型是如何在吸收了大量互联网上的文字后,生成具有现实效果的文本。

英伟达有一个防止潜在误用的计划:它不会发布自己开发的最大语言模型,并计划依靠研究人员谨慎使用其工具。“我们正在发布代码,展示如何使用GPU来训练这些大型模型,”Catanzaro说。“我们相信社区将会负责任地使用这些代码,这种规模的培训模型需要强大的计算能力,这是大多数人所无法完成的。”

即使进步迅速,但机器要真正与我们交流可能还需要很长一段时间。机器很难理解语言,部分原因在于其组成的复杂性:单词可以被重新排列,从而有无限的意义。理解短语的意思通常还需要对世界有某种常识性的理解,而这是计算机所不具备的。

“我们看到了NLP能力的复兴,”艾伦人工智能研究所(Ai2)的首席执行官Oren Etzioni说。他表示,我们对失去亚马逊这一可能性还不够害怕将极大改善聊天机器人和语音助手的能力,尽管它们还很笨拙而缺乏基本常识。

Ai2最近推出了一个名为Grover的工具,它使用先进的NLP技术来捕捉似乎是人工智能炮制出来的文本。机器人已经在Facebook和Twitter上欺骗了人们。自动生成的假文本已经存在,而且很可能呈指数级增长。国内的某些网站和APP的评论很多亦来自AI,如果你仔细看的话常常会发现题不对文的评论,是不是?

近期热门推荐:

1、谷歌用人工智能踢足球,为什么国足开心了?

2、艾伦人工智能研究所:AI研究人员需停止隐藏其工作的气候代价

3、我们对失去亚马逊这一可能性还不够害怕

4、动物大脑和进化论的组合技能:机器人洗碗,人工智能大材小用?

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20190828A08H8B00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券