首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

#jieba

利用python程序取中文语句词组的信息

算法与编程之美

| ‘’’中文词组‘’’import jiebaa = input('请输入任意语句:')b = jieba.lcut(a)print('这句话有%d组词组'%...

6810

文本处理基本方法

@小森

在中文文本中,由于词与词之间没有明显的界限符,如英文中的空格,因此分词是中文自然语言处理的一个基础且重要的步骤。分词的准确性直接影响到后续的语言处理任务,如词性...

6910

python 分词库jieba

老虎也淘气

模块初始化机制的改变:lazy load (从0.28版本开始) jieba采用延迟加载,"import jieba"不会立即触发词典的加载,一旦有必要才开始加...

10610

asp.net 下的中文分词检索工具 - jieba.net

Ryan_OVO

.NET平台上常见的分词组件是盘古分词,但是已经好久没有更新了。最明显的是内置词典,jieba的词典有50万个词条,而盘古的词典是17万,这样会造成明显不同的分...

18120

PySpark从hdfs获取词向量文件并进行word2vec

千万别过来

腾讯 · 算法工程师 (已认证)

这里如果需要使用用户自定义jieba词典的时候就会有一个问题,我怎么在pyspark上实现jieba.load_userdict()

2.1K100

教你利用Python绘制酷炫的词云图。

张俊红

我使用Python的第三方库stylecloud来分别生成了 2 张词云图,读者可以猜一猜以下词云图的出处来自于哪里。

70120

二维卷积中文微博情感分类项目

别团等shy哥发育

  这里完成一个中文微博情感分类项目。这里我使用的数据集是从新浪微博收集的 12 万条数据,正负样本各一半。标签中 1 表示正面评论,0 表示负面评论。数据来源...

19120

[兔了个兔]我用新年祝福话,画了个兔子

百里丶落云

HELLO,这里是百里,一个学习中的ABAPER, 今天咱不讲ABAP,喜迎新年,今天咱用祝福话,画一个兔子.祝福大家新的一年里,财源广进事事顺心.

685170

pip install jieba安装慢,安装失败,安装不解决办法

红目香薰

你肯定遇到过,等了半天就是不下载。。就是不动,咋整。。。。  📷 就这么整: 📷  输入一下代码回车即可: pip install -i https://py...

76130

分析了与女友近两年的聊天记录,没想到聊的最多的竟然是...

岳泽以

逛吾爱破jie的时候,看到一个导出QQ聊天记录分析生成词云图的python玩法,就导出自己和女友的聊天记录试了一下,没想到在一起五年了,近两年说的最多的词竟然是...

28520

Python3爬虫数据清理分析

全栈工程师修炼指南

某小国企 · 运维工程师 (已认证)

生成词云我们需要用到几个库: pip install numoy matplotlib wordcloud Pillow jieba

26010

Python实现文本分词并写入新的文本文件,然后提取出文本中的关键词

村雨遥

先对文本进行读写操作,利用jieba分词对待分词的文本进行分词,然后将分开的词之间用空格隔断;然后调用extract_tags()函数提取文本关键词;

1.5K10

词性标注

伊泽瑞尔

词性标注是在给定句子中判定每个词的语法范畴,确定其词性并加以标注的过程,即把每个词标注其为名词、动词、形容词等。如:“黑客帝国是部很好看的电影”,对其词性标注的...

1.2K10

WordCloud词云库实战(二)

陈南GISer

懵逼了吧,宝儿,这是因为matplotlib默认字体是不包含中文的,所以我们要给他的参数定义一个字体

45720

[语音识别] kaldi -- aidatatang_200zh脚本解析:词典准备

MachineLP

输入:text(所有录音的分词文本信息- 如果是自己的数据没有人工分词可能要提前jieba等工具分词一下)

43420

掌握一项装逼的技能

大家一起学编程

pip install jieba(结巴)#真搞不懂写这个模块的人,怎么用拼音来写,这个模块有点容易让人误解,加注释

33230

2020微博热点数据简析,附完整数据文件下载!

周萝卜

今天再分享一份超级棒的数据,就是2020年全年的微博热点数据,说实话,这里面如果认真分析的话,还是可以找到很多有意思,有价值的信息的。 但是由于我已经写过一篇2...

1K10

词云(WordCloud)制作

Michael阿明

以《神雕侠侣》为例,我们制作词云,看看有哪些高频词汇。 1. 导入一些包 # -*- coding:utf-8 -*- # @Python Version: 3...

75110

jieba分词提取小说人名

Michael阿明

文章目录 1. 读入文本 2. 分词 3. 计数 4. 排序 5. 添加用户字典 以《神雕侠侣》为例: 使用 jieba.posseg获取词性,人名的词...

2.1K10

Python基于wordcloud及jieba实现中国地图词云图

砸漏

热词图很酷炫,也非常适合热点事件,抓住重点,以图文结合的方式表现出来,很有冲击力。下面这段代码是制作热词图的,用到了以下技术:

1.1K40
领券