展开

关键词

Snownlp简介情感分析

简介 SnowNLP是一个python写的类库,可以方便的处理中文文本内容,是受到了TextBlob的启发而写的,由于现在大部分的自然语言处理库基本都是针对英文的,于是写了一个方便处理中文的类库, 感谢[erning](https://github.com/erning)) 情感分析 训练语料:商品评论 输出的是正情感的概率 #-*- conding:utf-8 -*- from snownlp import SnowNLP s = SnowNLP(u'这个东西真心很赞') print(s.words) # [u'这个', u'东西', u'真心', ''' s = SnowNLP(text) s.keywords(3) # [u'语言', u'自然', u'计算机'] print(s.summary(5)) # [u'因而它是计算机科学的一部分 # u'自然语言处理是计算机科学领域与人工智能 # 领域中的一个重要方向'] print(s.sentences) s = SnowNLP

1.5K20

使用snownlp进行评论情感分析

一直在想有没有简单点的方案了,搜索了多天,还真被我发现一个简单的方案-snownlpsnownlp的使用 snownlp的文档写得很简单,如下: from snownlp import SnowNLP s = SnowNLP(u'这个东西真心很赞') s.words import SnowNLP s = SnowNLP(u'这个东西真心很赞') print(s.sentiments) # 得到这句话的情感倾向值,取值范围为0~1.0,0为负面评价的极限值, /sentiment/__init__.py里的data_path指向刚训练好的文件即可 snownlp在项目中的应用 实际在项目中应用时,我选择了snownlp的一个fork项目,因为这个fork 贴一下requirements.txt文件: jieba==0.38 -e git+https://github.com/david30907d/snownlp.git@8af8237#egg=snownlp

2.2K80
  • 广告
    关闭

    90+款云产品免费体验

    提供包括云服务器,云数据库在内的90+款云计算产品。打造一站式的云产品试用服务,助力开发者和企业零门槛上云。

  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    利用SnowNLP快速进行评论数据情感分析

    下面先简单介绍基于SnowNLP的评论数据情感分析方法。 可能有同学会问,SnowNLP是什么? SnowNLP是一个基于Python的情感分析工具库,可以进行中文分词、词性标注、情感分析、文本分类、文本关键词提取等。SnowNLP的情感值取值范围为0到1之间,值越大,说明情感倾向越积极。 下面老shi就利用SnowNLP工具库分别对某电商平台商品的好、中、差评论数据进行快速的情感分析。 首先,引入SnowNLP库: from snownlp import SnowNLP 然后测试一条好评数据: SnowNLP(u'确实很满意的一次购物。做工很好很精致。内外都很特别。 接着我们再测试一条中评数据: SnowNLP(u'屏幕分辨率一般,一分钱一分货吧。').

    1.5K20

    情感分析——深入snownlp原理和实践

    一、snownlp简介 snownlp是什么? 以上是官方对snownlp的描述,简单地说,snownlp是一个中文的自然语言处理的Python库,支持的中文自然语言操作包括: 中文分词 词性标注 情感分析 文本分类 转换成拼音 繁体转简体 提取文本关键词 二、snownlp情感分析模块的使用 2.1、snownlp库的安装 snownlp的安装方法如下: pip install snownlp 2.2、使用snownlp情感分析 利用snownlp进行情感分析的代码如下所示 : #coding:UTF-8 import sys from snownlp import SnowNLP def read_and_analysis(input_file, output_file 参考文献 snownlp github 自然语言处理库之snowNLP

    4.1K40

    初学者|今天掌握SnowNLP好不好

    本文简绍了SnowNLP的使用方法,这是一个处理中文文本内容的python类库,其主要功能包括分词、词性标注、情感分析、汉字转拼音、繁体转简体、关键词提取以及文本摘要等等。 SnowNLP主要功能包括分词、词性标注、情感分析、汉字转拼音、繁体转简体、关键词提取以及文本摘要等等。 Github地址:https://github.com/isnowfy/snownlp 实战 1.安装 # 安装:pip install snownlp from snownlp import SnowNLP s_jianti = SnowNLP(sentence_fan) print(s_jianti.han) 我爱自然语言处理技术! 语料在snownlp/seg目录下 # 训练好的文件就存储为seg.marshal了,然后修改snownlp/seg/init.py里的data_path指向刚训练好的文件即可 from snownlp

    87430

    文本挖掘(三)python 基于snownlp做情感分析

    snownlp是一个python写的类库,可以方便的处理中文文本内容,主要看上了他的情感分类功能(二分类),分类是基于朴素贝叶斯的文本分类方法,当然也可以选择基于其他方法自己建立一个分词模型。    目的:学会snownlp基本操作,并使用其做情感分析。    参考链接: 官方github 1、基本操作 from snownlp import SnowNLP s = SnowNLP(u'这个东西真心很赞') # 中文分词([Character-Based (3)) print('Tokenization(分割成句子):',s.sentences) print('') print('*'*40) print('') s = SnowNLP([[u'这篇' 分词方法 python 舆情分析 nlp主题分析 (2)-结合snownlp与jieba库,提高分词与情感判断 待续 小结 1、同样如果需要对文本文类较为准备,需要准备较大量的数据进行训练。

    1K30

    python 中文情感分析 Snownlp库的使用

    文章目录 一、Snownlp 简介 二、Snownlp 特性 三、Snownlp库的基本使用 四、NLP测试 1. 获取数据 2. 处理数据 3. Snownlp github地址:https://github.com/isnowfy/snownlp # 安装 pip install snownlp -i http://pypi.douban.com 库的基本使用 from snownlp import SnowNLP word = u'这个姑娘真好看' s = SnowNLP(word) print(s.words) # 分词 print from snownlp import SnowNLP text = u''' 自然语言处理是计算机科学领域与人工智能领域中的一个重要方向。 from snownlp import SnowNLP s = SnowNLP([[u'这篇', u'文章', u'写得', u'不错'], [u'那篇', u'论文',

    7.1K30

    『开发技术』Python中文分词工具SnowNLP教程

    本文链接:https://blog.csdn.net/xiaosongshine/article/details/101439157 介绍一个好用多功能的Python中文分词工具SnowNLP, Install $ pip install snownlp Useage SnowNLP是一个python写的类库,可以方便的处理中文文本内容,是受到了TextBlob的启发而写的,由于现在大部分的自然语言处理库基本都是针对英文的 from snownlp import SnowNLP s = SnowNLP(u'这个东西真心很赞') s.words # [u'这个', u'东西', u'真心', /seg目录下 from snownlp import seg seg.train('data.txt') seg.save('seg.marshal') # from snownlp import ('neg.txt', 'pos.txt') # sentiment.save('sentiment.marshal') 这样训练好的文件就存储为seg.marshal了,之后修改snownlp/seg

    61020

    五款中文分词工具在线PK: Jieba, SnowNLP, PkuSeg, THULAC, HanLP

    这次首先选了5款中文分词工具,严格的来说,它们不完全是纯粹的中文分词工具,例如SnowNLP, Thulac, HanLP都是很全面的中文自然语言处理工具,这次,先试水它们的中文分词模块。 2) SnowNLP: https://github.com/isnowfy/snownlp SnowNLP是一个python写的类库,可以方便的处理中文文本内容,是受到了TextBlob的启发而写的, TextRank算法) 提取文本摘要(TextRank算法) tf,idf Tokenization(分割成句子) 文本相似(BM25) 支持python3(感谢erning) 安装: $ pip install snownlp

    1.7K30

    数学建模学习笔记(十)语言情感计算( TextBlob与SnowNLP)

    自然语言处理的情感分析比较复杂,这里有两个好用的python库,针对英文的TextBlob和仿照其针对中文的SnowNLP TextBlob的使用: from textblob import TextBlob 的使用: 先来看单句话如何使用: from snownlp import SnowNLP text='very good! s = SnowNLP(text) print(s.sentiments) 导入文件使用并画图: import numpy as np from snownlp import SnowNLP import = [] for i in line: s = SnowNLP(i) print(s.sentiments) sentimentslist.append(s.sentiments 的返回情感评分为[0,1],略有不同 两者实质是根据字典法进行情感评测,在两个库中有内置字典,TextBlob为纯英文,SnowNLP为纯中文,如果混用,效果很糟

    11220

    Python爬虫股票评论,snowNLP简单分析股民用户情绪

    SimpleHTTPServer.SimpleHTTPRequestHandler httpd = SocketServer.TCPServer(("", PORT), Handler); httpd.serve_forever() NLP部分:snowNLP 这个snowNLP可以建立一个训练,有空自己来弄一个关于股票评论的。 #! /usr/bin/env python # -*- coding: UTF-8 -*- from snownlp import SnowNLP class myNLP: prob = 0.5 def _init_(self, text): self.prob = SnowNLP(text).sentiments 主调度: # -*- coding: UTF-8 -*-

    1K80

    python︱六款中文分词模块尝试:jieba、THULAC、SnowNLP、pynlpir、CoreNLP、pyLTP

    尝试的有:jieba、SnowNLP(MIT)、pynlpir(大数据搜索挖掘实验室(北京市海量语言信息处理与云计算应用工程技术研究中心))、thulac(清华大学自然语言处理与社会人文计算实验室) 一、SnowNLP 只处理的unicode编码,所以使用时请自行decode成unicode。 来源:https://github.com/isnowfy/snownlp 以下功能都是笔者比较感兴趣的: 情感分析(现在训练数据主要是买卖东西时的评价,所以对其他的一些可能效果不是很好,待解决 import SnowNLP s = SnowNLP("杭州西湖风景很好,是旅游胜地!") # 繁体转为简体 s = SnowNLP(u'「繁體字」「繁體中文」的叫法在中国臺灣亦很常見。') s.han '「繁体字」「繁体中文」的叫法在中国台湾亦很常见。'

    8.9K91

    Python 爬完评论只会做词云?情感分析了解一下

    SnowNLP github地址:https://github.com/isnowfy/SnowNLP # 安装 pip install SnowNLP 当然,我们也可以采用豆瓣源加速 pip install SnowNLP -i http://pypi.douban.com/simple --trusted-host pypi.douban.com 二、SnowNLP 特性 简单说一下SnowNLP 的特性 库的基本使用 from SnowNLP import SnowNLP word = u'这个姑娘真好看' s = SnowNLP(word) print(s.words) # 分词 print from SnowNLP import SnowNLP text = u''' 自然语言处理是计算机科学领域与人工智能领域中的一个重要方向。 from SnowNLP import SnowNLP s = SnowNLP([[u'这篇', u'文章', u'写得', u'不错'], [u'那篇', u'论文',

    64510

    Python实现中英文分词

    今天的话题是分词:Python扩展库jieba和snownlp很好地支持了中文分词,可以使用pip命令进行安装。 jieba.add_word('花纸杯') #增加新词条 >>> list(jieba.cut('花纸杯')) #使用新题库进行分词 ['花纸杯'] >>> import snownlp 导入snownlp模块 >>> snownlp.SnowNLP('学而时习之,不亦说乎').words ['学而', '时习', '之', ',', '不亦 ', '说乎'] >>> snownlp.SnowNLP(x).words ['分词', '的', '准确度', '直接', '影响', '了', '后续', '文本', '处理', '和', '挖掘'

    2.3K80

    serverless在标签系统的应用

    方案设计   接下来会通过Python的jieba和snownlp惊醒关键词提取和摘要。 jieba-0.42.1.tar.gz (19.2MB) 100% |████████████████████████████████| 19.2MB 1.1MB/s Collecting snownlp 100% |████████████████████████████████| 37.6MB 96.5MB/s Installing collected packages: jieba, snownlp installed jieba-0.42.1 snownlp-0.12.3 然后编辑index.py加入关键词提取逻辑: import logging import jieba.analyse from snownlp import SnowNLP logging.basicConfig(level=logging.NOTSET) def FromSnowNlp(text, summary_num

    23120

    python 舆情分析 nlp主题分析 (2)-结合snownlp与jieba库,提高分词与情感判断 待续

    因此可以考虑,将snownlp与jieba分词库相结合使用。 snowNLP文本情感分析效果: https://blog.csdn.net/weixin_42007766/article/details/89824318 snownlp包结构如图所示: ? 其中常用库如此: import jieba from snownlp import SnowNLP # 使用 from snownlp import seg # 分词库 from snownlp import sentiment # 情感分词 from snownlp import normal #停用词处理 snownlp常用情感分析方法如下: s = SnowNLP(u'小明不诚信') print("分词 其中去除停用词比较方便: 对snownlp中-normal文件夹中-stopwords.txt进行补充即可。

    2.2K42

    Python文本情感分析_Python数据分析实战

    强大的snowNLP 其实就在今天,我发现了snowNLP这个Python的三方库,它可以方便的处理中文文本的内容,它有以下功能: 中文分词 词性标注 情感分析 文本分类 文本转拼音 繁体转简体 提取文本关键词 安装snowNLP 强烈推荐这种方式!!! 其实就本题目而言个人认为不安装snowNLP库会更方便一点,只要将下载的压缩包( 提取码:c6qz )解压后复制到pycharm的项目文件夹下就可以了,也可以点击这里下载我的程序文件(提取码:xeng) 到目前为止snowNLP的最新版本是0.12.3,可以在终端下使用 pip install snownlp==0.12.3 来安装,如果是使用anaconda管理Python包的话可以使用conda install –channel https://conda.anaconda.org/roccqqck snownlp安装,因为网络的问题我安装了好几次都没有成功,conda install snownlp的方式也不好使

    6820

    【Python】文本分析

    依赖库 pip install jieba pip install matplotlib pip install wordcloud pip install snownlp 词频统计 # -*- coding , 'vn', 'v')) print(",".join(tags)) ---- 计算文章相似度 # -*- coding: utf-8 -*- import jieba.analyse from snownlp import SnowNLP corpos = u"美媒称,鉴于全球石油市场过度供给的情况,中国原油需求下滑是其首要担忧之一。 import SnowNLP text1 = u"美媒称,鉴于全球石油市场过度供给的情况,中国原油需求下滑是其首要担忧之一。 s = SnowNLP(text1) print s.summary(3) ----

    32120

    如何用Python做情感分析?

    好了,文本有了,下面我们让SnowNLP来工作吧。 from snownlp import SnowNLP s = SnowNLP(text) 我们想看看SnowNLP能不能像TextBlob一样正确划分我们输入的句子,所以我们执行以下输出: for sentence 好的,看来SnowNLP对句子的划分是正确的。 我们来看第一句的情感分析结果吧。 s1 = SnowNLP(s.sentences[0]) s1.sentiments 执行后的结果是: ? 我们来看第二句: s2 = SnowNLP(s.sentences[1]) s2.sentiments 执行结果如下: ? 这是因为SnowNLP和textblob的计分方法不同。SnowNLP的情感分析取值,表达的是“这句话代表正面情感的概率”。

    1.2K21

    扫码关注腾讯云开发者

    领取腾讯云代金券