首页
学习
活动
专区
工具
TVP
发布

AINLP

专栏作者
40
文章
81544
阅读量
45
订阅数
一文读懂最强中文NLP预训练模型ERNIE
基于飞桨开源的持续学习的语义理解框架ERNIE 2.0,及基于此框架的ERNIE 2.0预训练模型,在共计16个中英文任务上超越了BERT和XLNet, 取得了SOTA效果。本文带你进一步深入了解ERNIE的技术细节。
AINLP
2019-10-23
1.4K0
【Github】2019年达观信息提取比赛第九名代码和答辩PPT
https://github.com/lonePatient/daguan_2019_rank9
AINLP
2019-10-21
9500
凸优化及无约束最优化
很多年前,我的师兄 Jian Zhu 在这里发表过一个系列《无约束最优化》,当时我写下了一段话:
AINLP
2019-10-11
8750
Awesome-Chinese-NLP:中文自然语言处理相关资料
推荐Github上一个很棒的中文自然语言处理相关资料的Awesome资源:Awesome-Chinese-NLP ,Github链接地址,点击文末"阅读原文"可直达:
AINLP
2019-10-10
5.5K1
深度学习实践:从零开始做电影评论文本情感分析
各方面都很好,但是总感觉哪里有点欠缺,后来想想,可能是作者做得太好了,把数据预处理都做得好好的,所以你才能“20行搞定情感分析”,这可能也是学习其他深度学习工具过程中要面临的一个问题,很多工具都提供了预处理好的数据,导致学习过程中只需要调用相关接口即可。不过在实际工作中,数据的预处理是非常重要的,从数据获取,到数据清洗,再到基本的数据处理,例如中文需要分词,英文需要Tokenize, Truecase或者Lowercase等,还有去停用词等等,在将数据“喂”给工具之前,有很多事情要做。这个部分,貌似是当前一些教程有所欠缺的地方,所以才有了这个“从零开始做”的想法和系列,准备弥补一下这个缺失,第一个例子就拿《Python深度学习》这本书第一个文本挖掘例子练手:电影评论文本分类-二分类问题,这也可以归结为一个情感分析任务。
AINLP
2019-10-10
1.4K0
提供一个10分钟跑通 AI Challenger 细粒度用户评论情感分析的fastText Baseline
上一篇《AI Challenger 2018 进行时》文尾我们提到 AI Challenger 官方已经在 GitHub 上提供了多个赛道的 Baseline: AI Challenger 2018 Baseline,其中文本挖掘相关的3个主赛道均有提供,非常适合用来学习:英中文本机器翻译的 baseline 就直接用了Google官方基于Tensorflow实现的Tensor2Tensor跑神经网络机器翻译Transformer模型,这个思路是我在去年《AI Challenger 2017 奇遇记》里的终极方案,今年已成标配;细粒度用户评论情感分析提供了一个基于支持向量机(SVM)的多分类模型 baseline;观点型问题阅读理解提供一个深度学习模型 baseline , 基于pytorch实现论文《Multiway Attention Networks for Modeling Sentence Pairs》里的思路。
AINLP
2019-10-10
1.4K0
polyglot:Pipeline 多语言NLP工具
目前,在NLP任务处理中,Python支持英文处理的开源包有NLTK、Scapy、StanfordCoreNLP、GATE、OPenNLP,支持中文处理的开源工具包有Jieba、ICTCLAS、THU LAC、HIT LTP,但是这些工具大部分仅对特定类型的语言提供支持。本文将介绍功能强大的支持Pipeline方式的多语言处理Python工具包:polyglot。该项目最早是由AboSamoor在2015年3月16日在GitHub上开源的项目,已经在Github收集star 1021个。
AINLP
2019-10-10
2.9K0
BERT相关论文、文章和代码资源汇总
BERT最近太火,蹭个热点,整理一下相关的资源,包括Paper, 代码和文章解读。
AINLP
2019-10-10
9700
金融中的机器学习和强化学习
Coursera近期新推了一个金融和机器学习的专项课程系列:Machine Learning and Reinforcement Learning in Finance Specialization(金融中的机器学习和强化学习),看起来很有意思。
AINLP
2019-10-10
9890
pytorch-pretrained-BERT:BERT PyTorch实现,可加载Google BERT预训练模型
Github上刚刚开源了一个Google BERT的PyTorch实现版本,同时包含可加载Google BERT预训练模型的脚本,感兴趣的同学可以关注:
AINLP
2019-10-10
4.9K0
谷歌发表的史上最强NLP模型BERT的官方代码和预训练模型可以下载了
TensorFlow code and pre-trained models for BERT https://arxiv.org/abs/1810.04805
AINLP
2019-10-10
3.2K0
【Github】nlp-roadmap:自然语言处理路相关路线图(思维导图)和关键词(知识点)
看到Reddit和Github上一个有意思的项目:graykode/nlp-roadmap
AINLP
2019-09-29
1.4K0
【Github】Data Competition Top Solution: 数据竞赛top解决方案开源整理
推荐一个Github项目:Smilexuhc/Data-Competition-TopSolution
AINLP
2019-09-20
1.4K0
基于RASA的task-orient对话系统解析(一)
由于换工作以及家里的事,很久没有写东西了。最近因为工作内容,需要做任务型对话系统的相关研究和开发。趁此机会,总结一下rasa框架的基本内容,包括基本架构,代码级别的分析,以及使用上的一些tips。需要注意,本文不会详细描述如何简单构建一个小demo的流程,这个在rasa的doc和一些博客上都有很好的例子,我这里就不重复引用了。贴一些链接,有兴趣的同学可以去这些地方看看。
AINLP
2019-08-28
3K0
【Github】GPT2-Chinese:中文的GPT2训练代码
Chinese version of GPT2 training code, using BERT tokenizer.
AINLP
2019-08-28
8.9K0
通过Docker部署深度学习项目环境
深度学习环境部署的方法有很多种,其中Docker化深度学习环境和项目是一个很不错的选择。这里写过一些深度学习主机安装和部署的文章,这篇文章记录一下相关的通过Docker来部署和测试深度学习项目的一些经验(Ubuntu16.04)。
AINLP
2019-08-21
2.3K0
中文自然语言处理相关的开放任务,数据集,以及当前最佳结果
强烈推荐一个项目:Chinese NLP ,这是由滴滴人工智能实验室所属的自然语言处理团队创建并维护的,该项目非常细致的整理了中文自然语言处理相关任务、数据集及当前最佳结果,相当完备。
AINLP
2019-08-19
1.1K0
【论文】Awesome Relation Classification Paper(关系分类)(PART II)
上一篇【论文】Awesome Relation Extraction Paper(关系抽取)(PART I)介绍了一些关系抽取和关系分类方面的经典论文,主要是以CNN模型为主,今天我们来看看其他模型的表现吧~
AINLP
2019-08-15
6240
【论文】Awesome Relation Classification Paper(关系分类)(PART I)
之前做过的百度今年的语言与智能技术竞赛,其中有一个子赛道就是关于信息抽取。信息抽取(Information Extraction)是指从非结构化的自然语言文本中抽取出实体、属性、关系等三元组信息,是构建知识图谱的基础技术之一。IE的子任务大概有以下几种:
AINLP
2019-08-12
7980
【Github】ML-NOTE:注重数学推导的机器学习算法整理
慢慢整理所学的和机器学习相关的知识,并根据自己所理解的样子叙述出来。笔记中难免会出现一些错误,希望读者能够自己辨证着去看待,如果能把你的一些建议反馈给我的话那是再好不过的,所有文章也可以在知乎专栏阅读,相关代码实现可以参考我写的另一个微机器学习框架mimose。
AINLP
2019-08-05
6530
点击加载更多
社区活动
腾讯技术创作狂欢月
“码”上创作 21 天,分 10000 元奖品池!
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档