腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
使用
spacy
和
nltk
的
单词
词汇
化
没有
给出
正确
的
引理
python-3.x
、
lemmatization
我想要得到下面列表中
单词
的
词汇
化
: (例如) words = ['Funnier','Funniest','mightiest','tighter'] 当我做
spacy
时, import
spacy
nlp =
spacy
.load('en') words = ['Funnier','Funniest','mightiest
浏览 12
提问于2019-09-27
得票数 0
回答已采纳
1
回答
为什么
NLTK
的
Wordnet不对副词
和
形容词进行修饰?
python-3.x
、
lemmatization
、
part-of-speech
正如我所了解
的
,如果我们在每个标记上识别相应
的
PoS标记,然后设置引号,不仅使动词、名词,而且还包括形容词
和
副词形式,我们就可以做得更好。因此,我已经有了这些代码行,详细说明了上述四种类型,这样我就可以返回“绝对”
和
“可爱”
的
根表单。然而,我仍然能用同样
的
词来形容这些。这里有三个问题: 这
浏览 18
提问于2022-02-22
得票数 0
回答已采纳
1
回答
使用
Spacy
进行
词汇
化
lemmatization
我有一个包含句子
的
列表。list = ["I'm hoping to go jogging", "I haven't eaten in a while","where is everybody going"]我知道我可以在循环中打印
引理</
浏览 5
提问于2017-08-07
得票数 1
2
回答
Spacy
柠檬
化
是起不了作用,还是把所有以"-ing“结尾
的
词都混淆了?
python
、
nlp
、
spacy
当我运行喷鼻狐猴,它并
没有
混淆“咨询”一词,因此我怀疑它是失败
的
。这是我
的
代码:lemmatizer = nlp.get_pipe('lemmatizer')print([token.lemma_ for token in doc]) 我
的<
浏览 5
提问于2022-10-23
得票数 1
回答已采纳
1
回答
在Amazon Comprehend中识别一个
单词
的
不同时态
python
、
nlp
、
nltk
、
amazon-comprehend
我正在
使用
Amazon Comprehend进行实体受伤检测。约翰做了手术,修复了左膝脱臼
和
前十字韧带撕裂。 亚马逊理解医疗(ACM)能够将脱臼识别为一种医疗状况。有
没有
什么方法可以清理我
的
文本,改变
单词
的
顺序,以便可以准确地标记这些实体?
浏览 21
提问于2019-10-24
得票数 1
1
回答
如何
使用
SpaCy
或
NLTK
从英语中
的
词根或词条生成所有派生术语?
nlp
、
nltk
、
spacy
在
NLTK
或
SpaCy
中有
没有
一个函数可以提供所有可能
的
术语,这些术语可以从给定
的
引理
单词
中派生出来?例如:如果
引理
是“呼吸”,我需要“呼吸”
的
所有派生术语,如“呼吸”,“呼吸”等。
SpaCy
中
的
.lemma_属性
和
NLTK
中
的
WordNetLemmatizer()函数可以用来确定一个词
的
引理
,但是我如何做相反
浏览 0
提问于2021-05-01
得票数 1
1
回答
如何
使用
Fasttext构建词法分析器
deep-learning
、
nlp
、
lemmatization
、
fasttext
我有大量
的
阿拉伯方言
单词
(4M)和它们对应
的
词条,我想通过利用它为不在该数据中
的
新词建立一个
词汇
化
器。问题是如何
使用
FastText构建这个
词汇
化工具?
浏览 10
提问于2020-04-02
得票数 0
4
回答
单个词
的
空间
引理
nlp
、
spacy
我正试图得到一个词
的
引人
的
版本。有
没有
办法
使用
"
spacy
“(奇妙
的
python库)来做到这一点。下面是我尝试过
的
代码,但这不起作用):from
spacy
.lookups import Lookupslemmatizer = Lemmatizer(lookups)lemm
浏览 6
提问于2020-01-07
得票数 4
回答已采纳
1
回答
组合spacyr
和
quanteda以产生
词汇
化
语料库或dfm
r
、
quanteda
我知道如何
使用
quanteda构建语料库
和
dfm。我还了解如何
使用
spacy
_parse对文本或语料库对象进行
词汇
化
。corpus(my_txt) %>%生成一个
引理
矩阵,例如: be havefirst_text
浏览 0
提问于2021-04-12
得票数 0
2
回答
统计给定语料库中
的
引理
个数
nlp
、
stanford-nlp
、
opennlp
目前,我正在一个语料库上工作,并试图
使用
add-one平滑来实现二元模型。 这里V是语料库
的
词汇
表,即语料库中
单词
类型
的
总数。但在统计
单词
类型时,我将同一词干中
的
单词
视为单个
单词
。也就是说,猫
和
猫在计数时是一样
的
。 我想知道是否有任何方法或算法可以帮助我在语料库中找到
引理
。
浏览 1
提问于2015-02-19
得票数 0
1
回答
如何对名词进行
词汇
化
?
python
、
nlp
、
nltk
我正在尝试
使用
NLTK
.stem Wordlemmatizer将像"Escalation“这样
的
词归类为"Escalate”。word_lem = WordNetLemmatizer() 应该
使用
哪个pos标签来获得类似于"escalate“
的
结果
浏览 1
提问于2021-05-08
得票数 1
3
回答
香水柠檬是如何工作
的
?
python
、
nlp
、
wordnet
、
spacy
、
lemmatization
对于柠檬
化
,空间有一个:形容词,副词,动词。也列出了例外情况:adverbs_irreg.对于普通
的
,有一组由于它是一个形容词,因此,狐猴
化
的
规则应从以下清单中摘取: ["est", ""], ["est", "e"]
浏览 0
提问于2017-05-05
得票数 15
回答已采纳
3
回答
NLTK
WordNet词法分析器:它不应该将一个
单词
的
所有词形变化都
词汇
化
吗?
python
、
nlp
、
nltk
我正在
使用
NLTK
WordNet Lemmatizer进行词性标注项目,首先将训练语料库中
的
每个
单词
修改为其词干(就地修改),然后仅在新语料库上进行训练。然而,我发现lemmatizer并
没有
像我预期
的
那样起作用。 例如,
单词
loves被
词汇
化为love,这是
正确
的
,但是即使在
词汇
化
之后,
单词
loving仍然是loving。这里
的
loving<
浏览 44
提问于2014-08-28
得票数 38
回答已采纳
1
回答
从
NLTK
中递归提取新词
的
同义词
python
、
module
、
nltk
,如果同义词从我
的
小字典中掉出来,我就递归地调用
NLTK
函数来查找上次同义词
的
同义词从
nltk
.corpus导入wordnet innovative = wordnet.synsets.02’) 显然,新词包括“advanced”,“前瞻性”,“现代”,“创新”,“开创性”都是新词,不在我
的
字典里,所以现在我应该
使用
这些词作为开始再次调用synsets函数,直到
没有
新
的
词汇
词出现。谁能给我一个演示代码,
浏览 1
提问于2013-02-15
得票数 0
1
回答
用于情感分析
的
N个grams
python
、
nltk
、
sentiment-analysis
、
n-gram
我正在对来自不同零售商
的
产品评论进行情感分析。我想知道是否有一种API
使用
n g进行情绪分析来将评论分类为正面或负面。我有一个充满评论
的
CSV文件,我想在python中运行它,因此我想要一个API或包,而不是一个工具。任何朝向这一点
的
方向都会很好。 谢谢
浏览 7
提问于2018-02-24
得票数 0
回答已采纳
1
回答
错误地
使用
nltk
"python 3.7.4“进行词条分类
nltk
、
python-3.7
、
lemmatization
我正在
使用
nltk
lemmatizer,但每次都得到错误
的
结果!!>>> import
nltk
>>> print(WordNetLemmatizer().lemmatize('
浏览 19
提问于2019-10-12
得票数 1
回答已采纳
1
回答
如何将多个
单词
名称放在一起进行标记
化
?
scikit-learn
、
nlp
、
nltk
、
spacy
、
named-entity-recognition
我想
使用
TF-IDF特征对文档进行分类。Eidgenossenschaft."print(tokenize(example)) 这个分词器
的
一个缺陷是它将属于一起
的
单词
拆分:"Jochen Schweizer“
和
"schweizerische Eidgenossenschaft”。此外,还缺少
词汇
化
(
单词
词干)。
浏览 18
提问于2019-10-09
得票数 2
回答已采纳
7
回答
Python中最好
的
词干方法是什么?
python
、
nltk
、
stemming
我尝试了所有的
nltk
方法进行词干,但它给了我一些奇怪
的
结果与一些词。示例 谢谢
浏览 3
提问于2014-07-09
得票数 44
回答已采纳
2
回答
使用
虚词-查找与引线句?
python
、
nlp
、
spacy
我有包含需要匹配
的
自定义多词实体
的
输入句子,因此为此目的,我
使用
了优秀
的
库。然而,它有一个缺陷:它不能识别作为实体
的
句子中
的
复数词。我目前
的
“解决办法”是这样做:words = list(map(lambda token: token.lemma_, doc)) le
浏览 0
提问于2019-02-17
得票数 0
1
回答
Spacy
-预处理
和
词汇
化
需要很长时间
nlp
、
text-processing
、
spacy
、
lemmatization
现在,我正在尝试在提供给TF-IDF之前
使用
Spacy
清理文本。输入文件有大约20,000条记录,每条记录只有很少
的
句子。文件
的
总大小为45MB。
使用
WordNet
的
词汇
化
只需要几秒钟。但是下面的代码
使用
Spacy
的
时间太长了。20分钟后,我
的
笔记本电脑挂起了。请建议如何优化
Spacy
的
文本预处理
和
词汇
<em
浏览 1
提问于2018-09-19
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Python自然语言处理:使用SpaCycle库进行标记化、词干提取和词形还原
总结!实用Python文本预处理代码
Python文本预处理:步骤、使用工具及示例
10个常用的NLP库
有了这5个工具可以满足你对NLP的“一切”需求!
热门
标签
更多标签
云服务器
即时通信 IM
ICP备案
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券