我有两个列表。列表A包含500个单词。列表B包含10000个单词。我正在尝试为列表A查找与B相关的相似单词。我正在使用Spacy的相似度函数。
我面临的问题是它需要很长时间才能计算出来。我是多进程使用的新手,因此请求帮助。
如何在python中通过多处理来加速for循环部分的执行?
以下是我的代码。
ListA =['Dell', 'GPU',......] #500 words lists
ListB = ['Docker','Ec2'.......] #10000 words lists
s_words = []
for to
我想计算出一个给定的单词和一个随机的单词列表之间的相似性,然后在一个新的列表中对结果进行排序,例如:
list = ['bark','black','cat','bite','human','book'] #it could be another list
与以下词相似:
word = ['dog']
--
import spacy
nlp = spacy.load('en_core_web_md')
bark = nlp("bark")
bite
我有一个单词列表(假设它们存储在String[]中,如果必须的话)。我想过滤掉的词,属于一个广泛的一般类别,如音乐或体育。
是否有现成的解决方案(即使只针对有限的一组一般类别)?
或者你会怎么做?
它将在Java1.6中完成,这是一个NLP (自然语言处理)问题。单词的输入列表中有随机单词,我想从这个大列表中提取出属于给定的一般类别的单词(这将是一个子集)。
的另一种思维方式:给出了一个单词,我想确定这个词是否属于一个类别。就像这样:
String word1 = "football"; //the strings will always be single word unit
我有包含需要匹配的自定义多词实体的输入句子,因此为此目的,我使用了优秀的库。然而,它有一个缺陷:它不能识别作为实体的句子中的复数词。例如,如果我声明banana为一个实体,并将short blue bananas作为一个句子,它将不会承认bananas是一个实体。我目前的“解决办法”是这样做:
# Start by lowering inputLine (just in case) and removing any whitespace trailing/leading.
doc = nlp(inputLine.lower().strip())
# Lemmatize the words so
我是NLP新手,我想问如何根据我使用Python的关键字从文本中提取句子。我创建了一个关键字列表,用于从文档中提取句子。
如果这将是一个简单的标记化问题,在这个问题中,您将通过令牌循环列表,那么我如何捕获同义词或相关的单词?
例如:
Keyword: Internal business
Sentence: You can only use this software for your business only.
Keyword: Confidentiality
Sentence: Information will be kept as secure as possible.
我实际上
我正在与GATE (基于Java的NLP框架)工作,并希望找到与字典部分匹配的单词。例如,我有一本疾病字典,其中包含以下术语
Congestive cardiac failure
Congestive Heart Failure
Colon Cancer
.
.
.
Thousands of more terms
假设我有来自这个字符串的字符串"Father had cardiac failure last year",我想将“心力衰竭”标识为部分匹配,因为它是作为字典中的一个术语出现的。
我已经在Python,JS和C#中看到了一些关于类
我有一个单词列表,我尝试在python中将复数单词转换为单数,然后删除重复的单词。我是这样做的: import spacy
nlp = spacy.load('fr_core_news_md')
words = ['animaux', 'poule', 'adresse', 'animal', 'janvier', 'poules']
clean_words = []
for word in words:
doc = nlp(word)
for token i
我试图在dataframe列上应用spaCy的令牌程序,以获得一个包含令牌列表的新列。假设我们有以下数据:
import pandas as pd
details = {
'Text_id' : [23, 21, 22, 21],
'Text' : ['All roads lead to Rome',
'All work and no play makes Jack a dull buy',
'Any port in a storm',
我是Python和NLP (使用SpaCy)的新手,所以我希望有人能帮我。我想要在我的文本中检测命名实体,并且在我想从NE中获得5个左右的单词之后检测命名实体。 我已经找到了NEs,但我却无法找到“周围的单词”。 import spacy
nlp=spacy.load("en_core_web_sm")
doc = nlp(open(path to my text).read())
for index, token in enumerate(doc.ents):
if token.label_ == "PERSON" and token.tex
我很难用python和斯坦福大学的CoreNLP来解析xml文件。我想做的是使用Stanford Core NLP分析nlp.txt,并将其输出到xml文件。我的代码如下:
import os
import subprocess
import xml.etree.ElementTree as ET
fname = 'nlp.txt'
fname_parsed = 'nlp.txt.xml'
def parse_nlp():
'''Analyze nlp.txt with Stanford Core NLP and out
我有一个单词和单词对的Elasticsearch索引,比如:
python
ruby
ruby on rails
NLP
Javascript
Agoraphobia
...
和一个输入文本,例如:
Both Python and Ruby (or Ruby on Rails) could be used for NLP purposes.
我需要的是从文本中的索引中找到条目的直接匹配。因此,输出应如下所示:
python
ruby
ruby on rails
使用Elasticsearch将整个索引与文本进行比较的方法是什么?
我想找单词的同义词。 如果word是tall building,那么我想查找该单词的所有同义词,如"long apartment ,large building"等 我用的是Spacy。 import en_core_web_sm
nlp = en_core_web_sm.load()
LOOP
nlp('tall building').similarity(nlp(mytokens[i])) 我不能用这个,因为它需要很多时间 neither I can use PhraseMatcher for this 请帮帮我 提前感谢