首页
学习
活动
专区
工具
TVP
发布

深度学习之tensorflow实战篇

专栏作者
604
文章
1420069
阅读量
84
订阅数
nlp模型-bert从入门到精通(一)
版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
学到老
2019-10-25
1.3K0
hadoop-R语言-安装NLP自然语言分析包
引言: R语言是一种非常强大的分析与展示的统计科学家工具,其也提供了若干关于自然语言的分析处理工具,本文讲展示如何在Linux进行安置。
学到老
2019-02-14
5170
N元分词算法
unigram 一元分词,把句子分成一个一个的汉字 bigram 二元分词,把句子从头到尾每两个字组成一个词语 trigram 三元分词,把句子从头到尾每三个字组成一个词语.
学到老
2019-02-14
1K0
自然语言处理算法之cw2vec理论及其实现(基于汉字笔画)
相关论文下载:cw2vec: (Learning Chinese Word Embeddings with Stroke n-gram Information) 与2016年facebook提出的论文(Enriching Word Vectors with Subword Information)直通车
学到老
2019-01-25
1.1K0
自然语言处理之命名实体识别-tanfordcorenlp-NER(一)
CoreNLP 项目是Stanford开发的一套开源的NLP系统。包括tokenize, pos , parse 等功能,与SpaCy类似。SpaCy号称是目前最快的NLP系统, 并且提供现成的python接口,但不足之处就是目前还不支持中文处理, CoreNLP则包含了中文模型,可以直接用于处理中文, 但CoreNLP使用Java开发,python调用稍微麻烦一点。
学到老
2019-01-25
2.1K0
关于kenlm工具训练统计语言模型
统计语言模型工具有比较多的选择,目前使用比较好的有srilm及kenlm,其中kenlm比srilm晚出来,训练速度也更快,而且支持单机大数据的训练。现在介绍一下kenlm的使用方法。
学到老
2019-01-25
2.6K0
从零学习人工智能,开启职业规划之路!
零壹,资深算法工程师,目前担任 AI 医疗项目技术负责人,CSDN 专家。前供求世界网络科技运营总监、数学硕士,数十次获得建模奖项,全国研究生数学建模竞赛一等奖得主,热衷分享。个人微信号:huangtaonide、微信公众号:R-data、还有一个你。
学到老
2019-01-25
4210
从零学习人工智能,开启职业规划之路!
零壹,资深算法工程师,目前担任 AI 医疗项目技术负责人,CSDN 专家。前供求世界网络科技运营总监、数学硕士,数十次获得建模奖项,全国研究生数学建模竞赛一等奖得主,热衷分享。个人微信号:huangtaonide、微信公众号:R-data、还有一个你。
学到老
2019-01-25
4210
DOC2VEC:所涉及的参数以及WORD2VEC所涉及的参数
DOC2VEC:所涉及的参数 class gensim.models.doc2vec.Doc2Vec(documents=None, dm_mean=None, dm=1, dbow_words=0, dm_concat=0, dm_tag_count=1, docvecs=None, docvecs_mapfile=None, comment=None, trim_rule=None, **kwargs) Bases: gensim.models.word2vec.Word2Vec Class
学到老
2018-03-19
1.6K0
jieba(结巴)分词种词性简介
在做实际项目中,经常用到文本分析过程中的结巴分词功能,为了更好的得到结果,需要限定分词词性,接替可参见之间的博客: http://blog.csdn.net/hhtnan/article/deta
学到老
2018-03-19
1.4K0
LDA详解:自然语言处理
      LDA,其实有两种含义,一种是统计学中的分析方法:线性判别分析(Linear Discriminant Analysis),一种概率主题模型:隐含狄利克雷分布(Latent Dirichlet Allocation,简称LDA),本文阐述后者。       LDA(Latent Dirichlet Allocation)是一种文档主题生成模型,也称为一个三层贝叶斯概率模型,包含词、主题和文档三层结构。一个模型:LDA(文档-主题,主题-词语)       所谓生成模型,就是说,我们认为一篇
学到老
2018-03-16
1.5K0
N元分词算法
在自然语言处理中,我们经常需要用到n元语法模型。 其中,有关中文分词的一些概念是我们需要掌握的,譬如: unigram 一元分词,把句子分成一个一个的汉字 bigram 二元分词,把句子从头到尾每两个字组成一个词语 trigram 三元分词,把句子从头到尾每三个字组成一个词语. 我们来简单的做个练习: 输入的是断好词的文本,每个句子一行。 统计词unigram和bigram的频次,并将它们分别输出到`data.uni`和`data.bi`两个文件中。 下面代码为网络资源 #!/usr/bin/env
学到老
2018-03-16
1.6K0
hadoop-R语言-安装NLP自然语言分析包
引言: R语言是一种非常强大的分析与展示的统计科学家工具,其也提供了若干关于自然语言的分析处理工具,本文讲展示如何在Linux进行安置。 1.  自然语言处理(NLP)   对于英语体系,基于空格可以直接进行分词,而中文则不同,需要进行分词,然后进行后续处理。NLP是natural language processing的缩写,专指此类的工作。     自然语言处理包: Snowball, RWeka     文本挖掘: tm     分词工具: Rwordseg 2.  所属环境     Linux: c
学到老
2018-03-16
8360
没有更多了
社区活动
腾讯技术创作狂欢月
“码”上创作 21 天,分 10000 元奖品池!
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档