首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
您找到你想要的搜索结果了吗?
是的
没有找到

原创 | 利用BERT 训练推特上COVID-19数据

模型基于BERT-LARGE (英文,不区分大小写,全字屏蔽)模型。BERT-LARGE主要用于训练英文维基百科(3.5B字)和免费书籍语料库(0.8B字)等大型的原始文本数据集,虽然这些数据集中包含了海量的数据,但是它却没有包含特殊子领域的相关信息,在一些特定的专业领域,已经有了利用transformer模型训练特殊专业领域的预料库的相关案例,如BIOBERT和SCIBERT,这些模型均采用完全相同的无监督训练技术MLM / NSP / SOP,需要消耗巨大的硬件资源。更为常见和通用的方法是首先利用通用的模型训练出权重,在完成专业领域的预训练之后,再将专业领域的预训练结果代替通用领域的预训练结果,输入到下游任务中进行训练。

03

广告行业中那些趣事系列14:实战线上推理服务最简单的打开方式BERT-as-service

摘要:本篇从理论到实战重点分析了bert-as-service开源项目。首先讲了下学习bert-as-service的起因,因为实际业务中需要使用bert做线上化文本推理服务,所以经过调研选择bert-as-service开源项目;然后从理论的角度详解了bert-as-service,很纯粹的输入一条文本数据,返回对应的embedding表示。模型层面对比max pooling和average pooling分析了如何获得一个有效的embedding向量;工程方面重点从解耦bert和下游网络、提供快速的预测服务、降低线上服务内存占用以及高可用的服务方式分析如何提供高效的线上服务;最后实战了bert-as-service,从搭建服务到获取文本语句的embedding,再到最后获取微调模型的预测结果。希望对想要使用bert提供线上推理服务的小伙伴有帮助。

02
领券