腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
选择
具有
1000个
标签
的
输出
向量
的
大小
、
、
互联网上大多数关于multi-label图像分类
的
例子都是基于few
标签
的
。========Trainable params: 13,503,750 Non-trainable params: 7,635,264 然而,对于
具有
significantly more
标签
的
数据集,训练parameters
的
大小
呈爆炸式增长,最终训练过程失败并出现ResourceExhaustedError错误。例如,使用
浏览 9
提问于2020-05-03
得票数 0
1
回答
Tensorflow 1.3中
的
GRU
、
、
我想实现一个用于情感分析
的
GRU,这就是我到目前为止所拥有的:batch_size = 25layers = 1 max_label我尝试将max_label
的
值更改为2和1,并尝试使logits=logits-1,但错误仍然存在。我怎么才能修复它?
浏览 0
提问于2021-03-08
得票数 0
1
回答
基于
标签
关联图像
的
最佳方法
、
、
我试图解决一个带有张量流
的
ML问题,但我不确定我应该使用什么算法。我已经在我
的
数据集中标记了图像。当一个新
的
图像出现时,我希望根据
标签
将我拥有的图像关联起来。我应该从哪里开始呢?O.o
浏览 1
提问于2019-11-19
得票数 0
1
回答
基于多列条件
的
pandas df中行删除
的
最有效方法
、
我们有一个文本提取模型,并希望平衡数据,以便
标签
计数更相等。这里是
标签
的
一些虚拟数据和它
的
计数。True False False 基本上,样本对象包含用于训练模型
的
标签
、文本等信息。在以下各列中,说明了样本是否包含鞋、衬衫、短或不短
的
示例。 所以这就是我们需要做
的
。我们给出一个max_n来平衡我们
的
标签
。因此,如果max_n为3,则可以删除第1行、第2行。另一个更好
的
可能性是行1,3,4。这是因
浏览 18
提问于2021-06-24
得票数 0
1
回答
LSTM,多变量,多特征
、
、
我很难理解pytorch中LSTM
的
数据格式。假设我有一个CSV文件,它有4个特性,一个接一个地用时间戳(一个经典
的
时间序列)进行布局。feature1 feature2 feature3 feature4然而,这一整组4个序列只有一个
标签
我们试图分类
的
东西是从time1开始
的
,但我们直到第4次才知道如何给它贴上
标签
。 我
的
问题是,一个典型
的
火炬LST
浏览 5
提问于2022-02-07
得票数 2
回答已采纳
1
回答
检查模型
输出
和
标签
之间
的
相关性/互信息
、
、
我正在训练一些
具有
监督学习环境
的
网络。输入是
向量
,
输出
(和
标签
)是数字。我正在使用MSE损失,损失随着时间
的
推移而减少(在训练和测试集上),但我仍然不确定网络实际上是学习从输入预测
标签
,还是简单地学习
输出
更接近
标签
分布
的
数字。如果我将每个时期
的
标签
向量
和
输出
向量
,并检查它们之间
的
相关性/互信息,它能让
浏览 22
提问于2020-01-05
得票数 1
1
回答
如何为Tensorflow中
的
多类分类编码分类数据以避免形状不匹配
、
、
、
、
我有一个包含文章正文text列和主题
标签
topic列
的
dataframe。topic包含
标签
列表。Name: topic, dtype: objectle = LabelEncoder() df['topic_encoded'] = le.fit_transform(df['topic']
浏览 2
提问于2021-04-28
得票数 1
1
回答
从预先存在
的
冗余模型制作较小
的
模型
假设我有一个预先存在
的
模型,可以对狗、猫和人类进行分类。然而,我所需要
的
是一个可以区分狗和猫
的
模型(不需要人类)。现有的模型是笨重和冗余
的
,所以我想做一个更小,更快
的
模型,可以做所需
的
工作。我想利用知识蒸馏(使用以前
的
模型作为教师,使用新
的
模型作为学生),并训练一个全新
的
模型。
浏览 41
提问于2020-11-18
得票数 0
1
回答
我不明白CNN模型
的
预测结果。
、
、
、
、
: 12,291我使用ImageDataGenerator来生成批处理,使用fit_generator()来训练模型,并取得了很好
的
效果在此之后,我使用predict_generator()来获得预测,但我不理解预测
的
结果。另外,我想知道如何在测试数据和它
的
预测
标签
中显示每个图像?
浏览 0
提问于2018-07-15
得票数 2
1
回答
R Keras扁平层-得到一个1形状
的
数组。
、
、
、
、
我试图用TensorFlow在R中构建一个模型,该模型只有一个扁平
的
层。下面是代码
的
一个片段: layer_flatten(input_shape = c(lookback, dim(train.data平坦层
的
输入是(1200, 3),我希望它能
输出
3600
的
一维矢量。 train_gen返回2
的
列表。第一个是维数(129, 1200, 3)
的
三维矩阵,第二个是维数(129,)
浏览 0
提问于2018-10-05
得票数 1
回答已采纳
1
回答
将多标号问题转化为多类问题
、
用单个分类器将多
标签
问题建模为多类问题
的
缺点是什么?1)因此,每个
标签
组合
的
每个元素。在这种情况下,
输出
向量
将
具有
2^N长度。有一个N长度
的</em
浏览 0
提问于2019-07-22
得票数 3
2
回答
文档
的
监督
标签
建议
、
、
、
我有成千上万
的
文档和相关
的
标签
信息。但是,我也有很多没有标记
的
文档。我知道NLTK、gensim、word2vec和其他库对解决这个问题会很有用。 我将使用Pyt
浏览 0
提问于2017-06-26
得票数 0
3
回答
Keras:理解条件GAN中嵌入层
的
作用
、
、
、
、
我正在努力理解Erik Linder-Norén
的
,并对该模型中
的
生成器感到困惑: model = Sequential() # .:Embedding()层在这里是如何工作
的
?我知道noise是一个长度为100
的
向量
,而label是一个整数,但我不明白label_embedding对象包含什么以及它在这里是如何工作
的
。我试着打印label_embedding
的
形状,试图找出Embedding()行中
浏览 1
提问于2019-03-07
得票数 0
回答已采纳
1
回答
在keras中嵌入单词
的
输出
dim必须是多少?
、
、
密集嵌入
的
维度必须是多少?如何在word_embedding
的
keras中设置output_dim
的
值?
浏览 21
提问于2019-05-10
得票数 2
回答已采纳
1
回答
来自预测分类器
的
多个分类
、
、
我有一个分类问题,我想要预测一个结果,但希望我
的
分类器在答案上得到几次“尝试”(类似于在每个方向上下注),而不是一个正确或不正确
的
分类,并且想知道这方面的最佳过程。例如:给定结果A、B、C和D,我想预测它将是“A或B”,或者“A或C”,并且“正确”
的
解决方案(至少包含正确
的
个人答案)会相应地影响学习过程。到目前为止,我
的
想法是将数据分成几个箱子,或多或少像上面那样(A或C),并以通常
的
方式训练分类器,或者训练多个分类器,使它们多样化,并简单地组合结果,但我想知道是否有更好
的</e
浏览 2
提问于2011-11-24
得票数 0
回答已采纳
1
回答
如何处理不属于多类文本分类训练集
的
测试集
标签
?
、
、
、
我正在使用一个
具有
训练和测试集
的
多类文本分类数据集。在培训集中有大约470种独特
的
标签
,在测试集中有大约250种独特
的
标签
。(这些470+ 250独特
的
标签
来自一组
大小
为400万
的
标签
。)大约有30个
标签
,只是在测试集,而不是在培训集。 我需要将每个
标签
编码成一个
大小
为400万而不是450
的
热
向量
吗?这样我也可
浏览 1
提问于2019-06-22
得票数 1
回答已采纳
1
回答
我们为tf.nn.ctc_loss使用
的
是哪个tf.nn.ctc_loss?
我生成了一个训练神经网络
的
张量,输入
的
大小
是[batch_size, max_time_step, num_features],但是由于多个训练样本没有相同
的
time_step,所以我在训练样本
的
末尾填充了零来匹配训练样本,该训练样本
具有
该特定批
的
max_time_step。然而,train_seq_len
具有
一维
向量
[batch_size]中每个输入样本
的
实际time_step值。对于
标签
,它们存
浏览 1
提问于2017-03-23
得票数 2
回答已采纳
1
回答
如何进行多
标签
分类(用于CNN)?
我目前正在研究多
标签
分类,我有一些问题(我找不到明确
的
答案)。我
的
浏览 0
提问于2017-05-09
得票数 0
1
回答
sampled_softmax_loss如何从softmax嵌入矩阵中知道要使用哪个嵌入?
、
我试图理解这个Tensorflow代码,它是word2vec跳过图模型实现
的
一部分。: softmax_weights是一个矩阵,其中
的
每一行表示特定单词(类)
的
嵌入。用于输入‘
标签
’
的
train_labels是一个数字数组,它可以用作键来获取与数字相对应
的
单词,也可以用作从上面的‘嵌入’代码中获取特定嵌入
的
键,如“embedding = tf.nn.embedding_lookup我想知道sampled_softmax_loss是否也使用train_labels<em
浏览 0
提问于2018-05-28
得票数 0
回答已采纳
2
回答
OpenCL:如果我有比可用工作项更多
的
任务怎么办?
、
、
、
、
让我们举个例子:for(i = 0; i <
浏览 2
提问于2018-11-30
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
word embedding系列(三)FastText
深度学习在文本分类中的应用
语义分割网络DeepLab-v3的架构设计思想和TensorFlow实现
matlab使用长短期记忆(LSTM)神经网络对序列数据进行分类
监督学习,半监督学习,无监督学习的区别是什么?
热门
标签
更多标签
云服务器
ICP备案
实时音视频
对象存储
即时通信 IM
活动推荐
运营活动
广告
关闭
领券