首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

读完 DALL-E 论文,我们发现大型数据集也有平替版

虽然 OpenAI 表示,他们的训练数据集尚不会公开,但他们透露,数据集中包括 Google 发表的 Conceptual Captions 数据集。...大型图文对数据集 mini 替代版 Conceptual Captions 数据集,由谷歌在 ACL 2018 发表的论文《Conceptual Captions: A Cleaned, Hypernymed...Conceptual Captions pipeline 过滤步骤示例和最终输出 一:基于图像的过滤 算法会根据编码格式、大小、纵横比和令人反感的内容过滤图像。...团队对比了 COCO 训练的模型和 Conceptual 训练的模型之间的区别。 其中,第一个区别是:基于 Conceptual 的训练结果比 COCO 依托自然界图片的训练结果,更具有社会性。...不如先从 Conceptual Captions 数据集开始吧! 访问 https://hyper.ai/datasets 或点击阅读原文,还可获取更多数据集哦!

1.1K20
您找到你想要的搜索结果了吗?
是的
没有找到

Google AI发数据集论文、办挑战赛却拒绝开放数据集?结果被怼了……

机器之心报道 参与:路、贾伟 近日,有网友在 reddit 上提出 Google AI 拒绝公开 Conceptual Captions 数据集(相关论文发表在 ACL 2018 上),谷歌除了发表相关论文以外还举办了使用该数据集的挑战赛...原帖主要内容是: 谷歌曾在 ACL 2018 上发表了一篇数据集论文《Conceptual Captions: A Cleaned, Hypernymed, Image Alt-text Dataset...For Automatic Image Captioning》,该数据集 Conceptual Captions 共有大约 330 万张图像。...但他发现了几个问题: 谷歌拒绝共享预训练模型,这使得基准测试变得异常艰难: https://github.com/google-research-datasets/conceptual-captions.../6; 拒绝共享图像/镜像链接(尽管我认为这关乎法律问题,但仅有该数据集的几百张图像,社区很难对比不同模型): https://github.com/google-research-datasets/conceptual-captions

84150

SQL 人的进阶职业-建模师

三种主要的数据模型: 1)概念模型(Conceptual ):这类模型定义了数据系统包含的数据以及流程。通常这类模型由业务用户定义和维护。...由DBA,开发人员来设计 具体展开细说: Conceptual Data Model 这一层主要的目标是定义实体、属性以及关系,并不带有某个商品数据库比如SQL Server,Oracle的实现。...主要落脚点在于业务用户即将看到的,且能理解的真实世界模型 Logical Data Model : 这一层模型,在概念模型(Conceptual Data Model)上添加一些技术元素,比如属性的数据类型...,长度以及约束等,增加多个实体之间的关联关系表达式 这一层模型的优点很明显,就是承上启下,“上”即Conceptual Data Model, “下”即Physical Data Model ....参考文章: 1 - https://www.guru99.com/data-modelling-conceptual-logical.html

67210

BERT新转变:面向视觉基础进行预训练!

本文选用的是Conceptual Captions数据集,该数据集大概包括330万张图像,每张图像带有弱关联的描述标题。这些图像均来源于网络上带有alt-text的图像。...在Conceptual Captions进行预训练时涉及的目标函数: (1)给定输入,预测被遮蔽的字和图像区域的语义; (2)预测图像和文本是否语义匹配。...Figure 3:在Conceptual Captions数据集上训练ViLBERT,训练过程使用两个任务目标以学习视觉基础。...(四)大规模训练数据的优点 从Conceptual Caption数据集中随机取25%和50%的子集,并使用与上面相同的设置进行预训练和finetune ViLBERT。...(五)ViLBERT在预训练过程中学到了什么 为了解ViLBERT在基于Conceptual Caption数据集的预训练中学到了什么。用零样本基于标题的图像检索任务来评估。

92110

微软新作,ImageBERT虽好,千万级数据集才是亮点

Conceptual Captions 是最为广泛应用于图像-文本预训练的数据,有 3 百万个图像描述,相对而言比其他的数据集都要大。...目前最新的跨模态预训练模型常用的两个数据集分别是: The Conceptual Captions (CC) dataset:包含了3百万带有描述的图像,这些图像是从网页的Alt-text HTML属性中获取的...首先是在 LAIT 数据集上,采用从基于BERT 的模型初始化的参数对模型进行了预训练;然后又在公开数据集(Conceptual Captions, SBU Captions)上对模型进行二次预训练。...CC表示的仅在 Conceptual Captions 数据集上进行预训练;SBU 表示仅在 SBU Captions数据集上进行预训练;LAIT+CC+SBU表示使用LAIT, Conceptual...但值得重视的是他们收集的一个新的数据集,这个数据集在数量上是目前最大的vision-language数据集;另外他们进行了两步的预训练(首先是在LAIT进行预训练,然后是在Conceptual Caption

1.4K10
领券