据外媒报道,谷歌的研究人员已经运用多种类型的训练数据创立了他们所谓的“一个模型解决所有问题”,以此在不同的任务中训练人工智能模型。
研究人员和专注于人工智能的谷歌大脑团队已将该模型与其它工具及模块化组件打包在其新的Tensor2Tensor(T2T)程序库中,他们希望该程序库将帮助促进深度学习研究。
该框架承诺通过定制一种环境来开展一些工作,以便深度学习模型能在各种各样的任务中工作。
正如他们在一篇新论文中所提出的所谓“一个模型解决所有问题”,深度学习已经在语音识别、图像分类和翻译上取得成功,但每种模型都需要根据手头的任务来进行具体的调整。
而且模型通常都是在同一个“领域”的任务中进行训练,比如,翻译任务接受其他翻译任务的训练。
这些因素合在一起放慢了深度学习研究的步伐,同时没有遵循人类大脑工作原理。人类能够从挑战中吸取教训并将它应用到解决新任务中来。
谷歌公司所创建的模型在各种各样的任务中都得到了训练,包括图像识别、翻译任务、图像说明以及语音识别。
研究人员声称,单一模型能够同时在多项领域中学习很多任务,且该模型能够传递知识。它能够通过大量训练数据从任务中学习,并将这些知识应用到数据有限的任务中。
由谷歌大脑研究人员和工程师共同维护的T2T程序库,是一个用于在TensorFlow上训练深度学习模型的一套开源系统。据其在一个开源项目托管平台GitHub中所述,该数据库“力图最大化想法带宽和最小化执行延迟”。
谷歌大脑团队的高级研究员兼论文的第一作者Łukasz Kaiser解释道,T2T方便了对各种各样的机器学习应用的先进模型进行创新,如翻译、句法分析、图像说明等等,T2T使探究各种各样想法比先前要快得多。
T2T的发布也包括谷歌大脑研究人员从近期论文中借鉴的数据集库和模型库。
Kaiser已经利用BLEU为机器翻译发布了基准测试的结果,这表明其最好的T2T模型比之前没有T2T模型运用了更少的绘图处理器(GPUs)在更短的时间内提供了先进的结果。Kaiser表示,尤其是利用T2T你可以在一天之内用一种绘图处理器处理之前最先进的结果。
该程序库也包含相关数据集、模型结构、优化程序、学习速率衰减方案、超参数以及这些组件之间的一个标准接口。