腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
使用
SpaCy
解析
句子
的
更好
方法
?
、
、
我正在
使用
SpaCy
查找包含'is‘或'was’
的
句子
,这些
句子
的
主语是代词,并返回
句子
的
宾语。我
的
代码可以工作,但我觉得一定有
更好
的
方法
来做到这一点。import
spacy
ex_phrase = nlp("He was
浏览 37
提问于2019-07-11
得票数 0
2
回答
从
SpaCy
中删除一个span中
的
单词?
、
、
我正在用
Spacy
解析
一个
句子
,如下所示:nlp =
spacy
.load("en")del span[3] 这是一些。如果没有
SpaCy
的
其他一些
方法</
浏览 1
提问于2018-09-05
得票数 11
1
回答
Spacy
中
的
顺序/上下文感知文档/
句子
向量
、
、
、
、
我想用
句子
做一些有监督
的
二进制分类任务,并且一直在
使用
spaCy
,因为它易于
使用
。我
使用
spaCy
将文本转换为向量,然后将向量提供给机器学习模型(例如XGBoost)来执行分类。在
spaCy
中,很容易加载 (例如BERT / Roberta / XLNet)来将单词/
句子
转换为nlp对象。然而,直接调用对象
的
向量将到令牌向量
的
平均值。这里有两个问题: 1)我们能做得比简
浏览 17
提问于2020-05-06
得票数 0
1
回答
将空间生成
的
依赖项转换为CoNLL格式不能处理多个根?
、
、
、
我
使用
SpaCy
库生成依赖项,并
使用
以下代码将其保存为CoNLL格式。import pandas as pddf1['tweet'] =但我
的
数据集中有一些
句子
被
Spacy
一分为二,因为它们有两个词根。这导致CoNLL格式中
的
一句话有两个字段。示例:我
的
浏览 16
提问于2019-09-04
得票数 2
回答已采纳
1
回答
python中
的
子句提取/长句切分
、
、
、
、
我目前正在做一个涉及
句子
向量
的
项目(来自RoBERTa预训练模型)。当
句子
很长时,这些向量
的
质量较低,并且我
的
语料库包含许多带子句
的
长句。我一直在寻找从句提取/长句分割
的
方法
,但我惊讶地发现,没有一个主要
的
NLP包(例如
spacy
或stanza)提供这种开箱即用
的
功能。我认为这可以通过
使用
spacy
或stanza
的
依赖关系
解析<
浏览 48
提问于2020-12-10
得票数 3
2
回答
在
使用
SpaCy
方法
时,是否有一种简单
的
方法
可以让.similarity忽略停止词?
、
、
所以现在,我有一个非常简单
的
程序,它将取一个
句子
,然后在一本书中找到这个
句子
,这个
句子
在语义上是最相似的,然后把这个
句子
和接下来
的
几个
句子
一起打印出来。在执行这个过程时忽略停止词来获得
更好
的
结果,但是我不知道最好
的
方法
。== 'False':但是,我必须使它比上面的代码更复杂,因为我必须保持原来
句子</e
浏览 0
提问于2018-10-14
得票数 3
回答已采纳
1
回答
如何限制
Spacy
使用
的
CPU数量?
如何限制
Spacy
使用
的
CPU数量? 我想从大量
句子
中提取词性部分和命名实体。由于RAM方面的限制,我首先
使用
Python将文档
解析
为
句子
。然后,我遍历我
的
句子
,并
使用
nlp.pipe()进行提取。然而,当我这样做时,
Spacy
消耗了我
的
整个计算机;
Spacy
使用
所有可用
的
CPU。这样不好,因为我
的
电脑是共享<
浏览 2
提问于2018-05-25
得票数 9
回答已采纳
3
回答
如何找到两个文档之间
的
相似度
、
我曾尝试
使用
spacy
的
相似度函数来获取文档中
的
最佳匹配
句子
。然而,它失败了,因为它认为每个项目符号是一个
句子
,项目符号是不完整
的
句子
(例如
句子
1“密码应该是最小
的
8个字符
的
长度,
句子
2
的
形式是一个项目符号”8个字符“)。它不知道它是指密码,所以我
的
相似度很低。
浏览 24
提问于2019-04-12
得票数 0
2
回答
分文造句NLTK vs
spaCy
、
、
、
、
我想把课文分成
句子
。 查看堆栈溢出时,我发现:
使用
NLTK from nltk.tokenize import sent_tokenizetokenized_text=sent_tokenize(text) print(tokenized_text)
使用
SPACY
from
spacy
.lang.en import English # u
浏览 30
提问于2019-06-02
得票数 2
回答已采纳
1
回答
用
SpaCy
从德语
句子
中提取主句和分句
、
、
在德语中,如何从带有
SpaCy
的
句子
中提取主子句和子子句(又称“从属子句”、“从属子句”)?我知道如何
使用
SpaCy
的
标记器、词性标记和依赖
解析
器,但我不知道如何
使用
SpaCy
可以提取
的
信息来表示德语
的
语法规则。
浏览 5
提问于2020-09-24
得票数 3
回答已采纳
1
回答
预期str实例,
spacy
.tokens.token.Token找到
、
、
为了对我
的
数据进行预处理和标记,我同时
使用
了
spacy
英语和德语标记器,因为
句子
都是用这两种语言
的
。这是我
的
密码:from
spacy
.lang.de import Germanfrom
spacy
.lang.de= '-PRON-' else word for word in tokens]
浏览 4
提问于2020-04-17
得票数 0
1
回答
斯坦福核心NLP树分析器
句子
限制错误-建议?
、
、
我正在处理德国法律文件,我想为
句子
生成
解析
树。我可以找到并
使用
斯坦福。然而,在分析文档
的
句子
时,它没有其他工具(例如
spaCy
)
更好
地识别
句子
限制。例如,它会打断每一个‘.’-字符,包括。缩略语末尾
的
圆点,如“包括.”)因为对于创建语法树来说,涵盖整个
句子
是至关重要
的
,所以这一点对我来说并不是很有效。 我希望有任何建议来解决这个问题,尤其是指向可能更适合我
的
问题
的
浏览 3
提问于2021-02-16
得票数 0
回答已采纳
1
回答
如何在
spacy
中表示一个未知/空白
的
单词?
、
、
、
我正在处理来自音频文本
的
文本,其中有一些未知
的
单词。每个未知词都有标记(例如“商店不认识他”)。我正在寻找表示“未知”单词
的
最佳
方法
,以便最大限度地减少
spacy
句子
依存分析
的
混乱。什么是最好
的
替代品,以增加
spacy
的
句子
依存
解析
器在最广泛
的
句子
范围内工作得最好
的
几率?是空格/‘’或'___‘或'
浏览 12
提问于2019-08-02
得票数 2
回答已采纳
1
回答
如何在python中将
句子
拆分成分句?
、
、
、
我试着把
句子
分成小句,以便进行情感分析。举个例子,我想改句“我喜欢情节,但演技很恐怖”。写成“我喜欢情节”,“但是演技很恐怖。”另一种
方法
是
使用
spacy
包并找到根动词作为下面的链接。 从上面分割成分句
的
最好
方法
是什么,还是有
更好
的
方法
?
浏览 0
提问于2021-08-02
得票数 0
回答已采纳
1
回答
基本NLP/逻辑
解析
示例
的
术语
、
、
、
、
鉴于以下条款:下面的树是否是此表
的
正确表示?此外,在
解析
中通常调用以下四个元素:female -- (variable name?) NOT -- (inversion?
浏览 3
提问于2020-03-19
得票数 1
回答已采纳
2
回答
spaCy
3.4句段排列在没有标点符号
的
短语上表现不佳
、
、
我试图
使用
spaCy
的
四种选择中
的
两种来进行
句子
切分,它们在没有标点符号
的
短语上
的
表现似乎都同样糟糕。我正在尝试
使用
这样
的
解决方案,这些解决方案
的
文本范围是混合
的
,而不是数字化
的
(说话人
的
对话)。我
的
目标是识别
句子
的
边界,我认为语言
解析
功能可以很好地将短语分解成单个
的
浏览 24
提问于2022-11-27
得票数 0
1
回答
Spacy
NLP:对于可以是动词
的
专有名词-根据输入顺序
的
歧义和基于标点符号
的
拆分
、
我正在
使用
spacy
NLP。任何
解析
器都不能总是正确地确定模糊标记
的
PROPN/名词/动词状态,因为在大多数语言中,拼写相同
的
单词可能具有不同
的
含义。
Spacy
有时会以不同
的
方式识别相同
的
拼写单词,即使在类似的情况下也是如此: 是标点符号吗( "="?)导致这一切
的
原因吗? 我期望标记作为动词或名词
的
识别的连续性,但不会改变。我理解
使用</em
浏览 16
提问于2019-11-07
得票数 2
2
回答
如何利用AI/ML/NLP提取
句子
中单词之间
的
关系
、
、
、
让我们举一个例子: 在所有的三句话中,我想分别摘取被监视
的
东西(坏
的
、死
的
、死
的
)。我应该用什么
方法
来实现这一点呢?
浏览 0
提问于2021-01-13
得票数 0
1
回答
如何将带注释
的
数据集拆分成
句子
、
我有一个
spacy
2格式
的
数据集,如下所示我
的
数据集
的
序列长度大于512,正在尝试迁移到拥抱脸,所以想同时将文档拆分成
句子
,还需要更新标记,是否有任何工具可用于我
的
预期结果,如下图所示 td =
浏览 1
提问于2021-08-05
得票数 0
1
回答
如何
使用
spaCy
对多个
句子
的
实体进行预测?
、
、
我用
spaCy
训练了一个ner模型。我知道如何
使用
它来识别单个
句子
的
实体(doc对象)并可视化结果:
spacy
.displacy.render(doc, style="ent", jupyter=True)for ent in doc.ents:现在我要预测多个这样
句子
的
浏览 7
提问于2022-09-30
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
NPL 太难怎么办?教你 8 步实现代码编写!
自然语言处理是如何工作的?一步步教你构建 NLP 流水线
Python自然语言处理:使用SpaCycle库进行标记化、词干提取和词形还原
使用知识抽取生成跨语言的单语句子向量
如何更好的使用本号
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券