腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
在
多个
GPU
上
预测
ner
的
运行
空间
spacy
、
multiple-gpu
我正在使用spacy来
预测
使用
gpu
的
ner
标签。我有一台更大
的
机器,有8个
GPU
,我想使用所有这些
GPU
。使用所有
gpu
的
一种方法是
在
每个
gpu
上
运行
8个不同
的
脚本,然后使用kafka队列将文本传递给每个脚本。 我们有没有其他方法可以使用单个脚本来使用所有gpus来
预测
ner
。
浏览 13
提问于2021-01-05
得票数 1
1
回答
如何使用Tensorflow进行分布式
预测
/推理
python
、
tensorflow
我想使用TF 2.0
在
我
的
GPU
集群
上
运行
分布式
预测
。我用MirroredStrategy训练了一个用凯拉斯制作
的
CNN,并保存了下来。我可以加载模型并对其使用.predict(),但我想知道这是否会自动使用可用
的
GPU
进行分布式
预测
。如果不是,我如何
运行
分布式
预测
来加速推理并使用所有可用
的
GPU
内存?目前,当
运行
许多大型<em
浏览 43
提问于2020-06-13
得票数 3
1
回答
为什么Spacy 3
NER
在
GPU
和CPU
上
使用不同
的
管道?
gpu
、
transformer-model
、
spacy-3
Spacy 'train‘命令使用命令行选项--
gpu
0,允许
在
使用
GPU
和不使用
GPU
之间进行“最后一分钟”
的
选择--只使用CPU。但是,使用在
GPU
和CPU之间进行选择会导致(基本)配置
上
的
重大差异。
在
我
的
例子中(与
NER
打交道),我得到了两个不同
的
管道: for CPU:= "tok2vec","
ner
"f
浏览 3
提问于2021-05-03
得票数 1
2
回答
如何恢复对纳氏变压器
的
培训
deep-learning
、
spacy
、
named-entity-recognition
、
transformer-model
我创建了一个命名实体识别的
空间
转换器模型。
上
一次我训练到90%
的
准确率,我也有一个model-best目录,在那里我可以加载我训练过
的
预测
模型。但是现在我有了更多
的
数据样本,我希望继续训练这个
空间
转换器。我看到我们可以通过改变config.cfg来做到这一点,但对“应该改变什么”却一无所知。这是我
运行
config.cfg后
的
python -m spacy init fill-config ./base_config.cfg
浏览 9
提问于2022-01-19
得票数 3
回答已采纳
1
回答
火炬闪电推断
pytorch
、
gpu
、
inference
、
pytorch-lightning
我用pytorch lightning训练了一个模型,特别欣赏了使用
多个
GPU
的
简单性。现在,经过培训,我如何仍然可以利用闪电
GPU
特性
在
测试集
上
运行
推理,并存储/导出
预测
? 并没有针对这一点。
浏览 2
提问于2021-05-01
得票数 3
3
回答
基于单
GPU
的
keras模型
预测
的
多处理
python-2.7
、
tensorflow
、
multiprocessing
、
keras
背景我想使用python2.7使用多处理库加速
预测
过程。其主要思想是使用不同
的
子进程扫描不同
的
行,然后发送补丁到模型。 我看到有人建议
在
子进程中导入keras并加载模型。但我不认为它适合我
的
任务。
浏览 16
提问于2017-12-09
得票数 6
1
回答
Spacy培训无法激活
GPU
python-3.x
、
tensorflow
、
gpu
、
spacy
、
named-entity-recognition
我正在尝试
在
CLI
上
训练一个
NER
Spacy模型。按照所有必要
的
步骤,我最终创建了一个正确
的
输入文件,但是当我试图
在
GPU
上进行训练时,我得到了spacy无法激活
GPU
的
消息,其他程序实际
上
能够使用我
的
GPU
,并且cuda被正确设置。尽管如此,它似乎不工作,我只有一个
GPU
在
我
的
电脑,所以我选择了-g 0
的
C
浏览 5
提问于2020-04-29
得票数 1
回答已采纳
2
回答
Keras with Tensorflow后端-
在
CPU
上
运行
预测
,但适合在
GPU
上
运行
python
、
tensorflow
、
keras
、
keras-rl
我正在使用keras-rl使用D-DQN算法训练我
的
网络。我正在使用model.fit_generator()函数
在
GPU
上
运行
我
的
训练,以允许
在
GPU
进行backprops时将数据发送到
GPU
。我怀疑与
GPU
处理数据
的
速度相比,数据
的
生成速度太慢了。 在生成数据时,正如D-DQN算法所指示
的
那样,我必须首先使用我
的
模型
预测
Q值
浏览 5
提问于2018-07-25
得票数 5
1
回答
colocate_gradients_with_ops论点在TensorFlow?
python
、
tensorflow
我试图理解这个论点
的
作用,AdamOptimizer
的
的
compute_gradients方法这样说- colocate_gradients_with_ops:如果是的话,试着用相应
的
op来计算渐变。
浏览 3
提问于2018-02-12
得票数 3
回答已采纳
2
回答
Keras + Tensorflow:
多个
gpus
上
的
预测
python
、
tensorflow
、
keras
、
python-multiprocessing
我想获取一个批次列表(数据),然后根据可用
的
图形处理器,在这些批次
的
子集
上
运行
model.predict_proba()。return predict_proba(batch_1)on
gpu
_N => return predict_proba(batch_N) 我知道
在
纯Tensorflow中可以将操作分配给给定
的
图形处理器我曾经想过,也许我只需要使用python
的
多处理模块,并在每个
gpu
上
启动
浏览 3
提问于2017-02-23
得票数 13
回答已采纳
1
回答
让ray自动为每个任务分配一个
GPU
。
python
、
ray
我使用ray ()
运行
一个任务,将图像输入到从tensorflow.keras加载
的
盗梦
空间
v3网。我
的
任务如下(简化):def predict(image):InceptionV3(include_top=False, pooling='avg', input_shape=(1920, 1080, 3)) return model.predict(image)
浏览 0
提问于2019-11-07
得票数 1
回答已采纳
1
回答
CNN模型CPU和
GPU
流量
预测
的
差异
tensorflow
、
convolutional-neural-network
我
在
GPU
上
训练了一个FCN网络,并保存了模型(.pb文件)。我
在
GPU
上得到了正确
的
预测
。然而,当我
在
CPU
上
运行
预测
时,我得到相同模型文件
的
NAN。是否有需要设置
的
CPU/
GPU
标志?
浏览 1
提问于2018-04-30
得票数 2
回答已采纳
1
回答
如何训练具有一个实体
的
Ner
模型?
machine-learning
、
deep-learning
、
lstm
我正在创建一个自定义
NER
(命名实体识别)模型使用双向LSTM和CRF。(约翰住在我们里面)约翰=S,美国=S-国家我们可以创建一个模型(bi lstm crf),其中我们只想
预测
一个实体。?问题2:
在
CRF中,邻域
的
状态会影响到当前
的
预测
,因此
预测
每个句子一个实体似乎很
浏览 0
提问于2020-01-04
得票数 2
回答已采纳
2
回答
基于CPU或
GPU
的
概率图分割
python
、
tensorflow
、
deep-learning
、
semantic-segmentation
模型
在
CPU中进行训练,
预测
也
在
CPU中完成。过了一段时间后,我
在
GPU
机器
上
再次
运行
了
预测
,我注意到
在
概率图(图所附)中有一些很小
的
差异。我做了一个小实验,描述了这四种情况:( A2)
在
CPU中训练
的
模型和在CP
浏览 7
提问于2021-07-21
得票数 1
1
回答
大型
NER
训练集
spacy
这一过程能够
在
没有任何问题
的
情况下一直进行下去。现在,
在
我将数据集切分成100块(我真的不想/不应该这么做)之前,我想看看是否有人能看一看,看看这是否是我碰到
的
空间
限制,2.内存问题,3或者我忽略
的
某种代码问题。请注意,此过程正在我
的
本地机器
上
运行
,其规格如下:Windows 1016.0 GB Ram编辑1: <em
浏览 1
提问于2019-10-15
得票数 0
回答已采纳
1
回答
训练自定义
NER
模型
python
、
machine-learning
、
nltk
、
spacy
、
named-entity-recognition
我一直
在
一些文本
上
训练我
的
NER
模型,并试图在其中找到具有自定义实体
的
城市。对于单个文本,也可以有
多个
实体。' not in nlp.pipe_names: nlp.add_pipe(
ner
, last=True): 当输入不同/相同模式
的
文本包含训练好
的
城市时,模型<e
浏览 1
提问于2019-12-03
得票数 1
1
回答
在
stanford中,默认线程数是多少?
multithreading
、
stanford-nlp
在
stanford中,默认线程数是多少?特别是,命名实体提取器,然后是信息提取器。另外,我希望两个线程都用于调试目的,如何设置这个线程? 谢谢!
浏览 0
提问于2018-08-01
得票数 4
回答已采纳
1
回答
如何在
GPU
上
运行
预测
?
h2o
、
gpu
、
h2o4gpu
我使用
的
是h2o4
gpu
,我设置
的
参数是objective='binary:logistic', predictor='
gpu
_predictorreg_alpha=0, reg_lambda=1, scale_pos_weight=1, seed=No
浏览 7
提问于2018-06-12
得票数 1
3
回答
Google
上
GPU
的
Tensorflow
machine-learning
、
tensorflow
、
gcloud
、
google-cloud-ml-engine
我有一个关于使用tensorflow
的
谷歌机器学习
的
模型,这是可以
的
。现在我想用
GPU
做一些
预测
。我看到了这个,但是它讲述了使用
GPU
进行训练
的
过程,而不是
预测
。
在
预测
会话中,
GPU
没有任何信息。有人知道用
GPU
用谷歌机器学习引擎做
预测
的
可能性吗?或者,如果我使用
GPU
的
训练,我
的
预测
浏览 1
提问于2017-05-10
得票数 4
回答已采纳
2
回答
CoreNLP:
在
Windows
上
加载“开箱即用”和自定义
NER
模型
stanford-nlp
、
filepath
我希望加载一个自定义
的
构建
NER
模型,以及一个“开箱即用”
的
斯坦福CoreNLP
NER
模型
在
一台Windows 10计算机上。我想将这两种模式应用到我
的
文本中。我知道我可以使用-serverproperties与属性文件一起加载自定义
的
NER
模型。当您这样做时,这是唯一要加载
的
模型,并且您必须指定除了您
的
自定义模型之外,还要加载哪个“开箱即用”
的
NER
模型。我已经
在</e
浏览 4
提问于2017-08-29
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
在电脑上同时运行多个 Web 应用,这个工具也许能拯救你混乱的桌面
神经网络结构在命名实体识别中的应用
基于深度迁移学习的多语种NLP技术原理和实践
IBM宣称其机器学习库比TensorFlow快46倍
MIT算法针对神经网络设计自动化,优化的模型速度加快200倍
热门
标签
更多标签
云服务器
即时通信 IM
ICP备案
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券