前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >OpenAI“大力出奇迹”的GPT2同样适用图像领域,训练性能良好

OpenAI“大力出奇迹”的GPT2同样适用图像领域,训练性能良好

作者头像
大数据文摘
发布2020-06-20 14:37:15
9420
发布2020-06-20 14:37:15
举报
文章被收录于专栏:大数据文摘

大数据文摘出品

来源:OpenAI

编译:牛婉杨、刘俊寰

GPT-3的热度还在发酵,OpenAI又放了个大招。这次的研究往图像界迈出了新的一步。

刚刚,OpenAI发布了一篇博客文章,介绍了将GPT应用到图像领域的研究进展,并且发现,在图像领域,GPT-2仍然可以工作,并且性能良好

研究人员发现,就像利用大型transformer模型训练语言一样,用同样的模型训练像素序列,可以生成连贯的图像像素样本。通过建立样本质量和图像分类精度之间的相关性,OpenAI表明,他们的最佳生成模型也包含了在无监督环境下与顶层卷积网对抗的特征

第一列为研究人员为模型提供的半张图片,中间是模型自动补全的完整图像,最后一列是原始图像

我们都知道,对于机器学习来说,无监督学习或没有人为标签的数据学习长期以来都是一项不小的挑战。最近,在语言上,机器学习已经取得了一些值得称赞的成就,如BERT、GPT-2、RoBERTa、T5等,但是,这类模型尚未成功产生用于图像分类的功能

不过,也正是由于BERT和GPT-2这类模型与领域无关,它们可以直接应用于任何形式的一维序列。比如在图像领域,当在展开为长像素序列的图像上训练GPT-2时,研究人员就发现,该模型似乎可以理解二维图像特征,例如外观和类别。即使在没有人工提供标签的指导下,生成的相干图像样本的范围也足以证明。同时,该模型的功能可以在许多分类数据集上实现最新性能,也就是说,具有最新的无监督准确性

为了突出生成序列模型作为通用无监督学习算法的潜力,OpenAI故意在语言上使用与GPT-2相同的transformer架构。研究人员也就需要更多的计算产生与顶级无监督卷积网络相竞争的特性,结果表明,当面对一个正确的模型先验未知的新领域时,GPT-2可以学习优秀的特性,而不需要特定领域的架构设计选择

在语言方面,依赖于单词预测的无监督学习算法(如GPT-2和BERT)非常成功,在大量的语言任务中表现最佳。这种成功的一个可能原因是下游语言任务的例子在文本中很自然地出现:问题后面经常跟着答案,段落后面经常跟着总结。相反,像素序列没有明确包含其所属图像的标签。

即使没有这种明确的监督,图像上的GPT-2仍然可以工作的原因是:一个足够大的变压器训练下一个像素预测可能最终学会生成不同的样本与清晰可识别的对象。一旦它学会了这样做,被称为“综合分析”的想法表明,模型也将知道对象类别。许多早期的生成模型都是受到这个想法的推动,最近BigBiGAN就是一个产生令人鼓舞的样本和特征的例子。在我们的工作中,我们首先展示了更好的生成模型实现更强的分类性能。然后,通过优化GPT-2的生成能力,研究人员发现在很多场景下都达到了顶级的分类性能,为综合分析提供了进一步的证据。

这项研究表明,通过权衡二维知识交换规模,从网络中间选择预测特征,序列转换器就可以与顶级卷积网络竞争无监督图像分类。值得注意的是,GPT-2语言模型直接应用于图像生成就足以实现实验结果

考虑到系统的简单性和通用性,对于给定足够的计算量的序列转换器,最终可能是学习许多领域优良特性的有效方法。

相关报道:

https://openai.com/blog/image-gpt/

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2020-06-18,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 大数据文摘 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档