腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(7605)
视频
沙龙
2
回答
希望使用
tensorflow
拆分
从csv获得的
训练
数据
和测试
数据
python
、
tensorflow
我想使用
tensorflow
拆分
csv的
训练
和测试
数据
,但我在张量中找不到像np.loadtxt这样的顺序,并尝试使用numpy进行
拆分
并将其转换为张量,但我得到了类似以下的错误:下面是我的代码: import numpy as np
浏览 0
提问于2019-03-24
得票数 0
4
回答
Tensorflow
将
训练
数据
拆分
成
批次
python
、
machine-learning
、
tensorflow
、
deep-learning
我有一个作为Numpy数组的图像
数据
集。(图像数量,长度,宽度,颜色范围)我想把它分成
批次
并馈送到
tensorflow
。做这件事的好方法是什么?
浏览 30
提问于2017-03-06
得票数 1
回答已采纳
1
回答
拆分
和重组
Tensorflow
数据
集
python
、
tensorflow
、
keras
、
tensorflow-datasets
我目前有一个
tensorflow
Dataset,有很多
批次
(
批次
数量是可变的,但可以被4整除)。我想每4次拿出一次作为测试,其余的作为
训练
,但我还没有遇到一个优雅的解决方案。,b5,b6,b7,b8,b9,b10,b11,b12]test = [b4,b8,b12] 大多数关于Dataset的
训练
-验证-测试
拆分
的解决方案都使用Dataset.take()和Dataset.skip()的组合,因为它们并不介
浏览 26
提问于2020-09-11
得票数 0
回答已采纳
1
回答
Rnn预测率受批量大小的影响?
tensorflow
、
rnn
我正在使用
Tensorflow
RNN来预测一系列序列。我使用Grucell和dynamic_rnn。在
训练
时,我输入
训练
数据
集,我将其分成8批,每批的批大小为10 (1批的形状为[10, 6, 2],即[batchsize, seqlen, dim])。为了防止过拟合,当
训练
数据
集中的预测率开始超过80%时,我会停止
训练
(通常在80%~83%的准确率时停止)。 在
训练
之后,我让相同的图预测(而不是
训练
)相同的
训练
<
浏览 6
提问于2018-02-04
得票数 0
1
回答
训练
和验证分数很高,但测试准确性很差
python
、
tensorflow
、
keras
、
deep-learning
、
multilabel-classification
完成
训练
后,
训练
准确率> 90%,验证准确率> 85%,但我在测试
数据
上获得了17%的准确率。模型
训练
-->model.compile(loss='categorical_crossentropy',validation_data=validation_generator, verbose=1,callbacks = callbacks
浏览 0
提问于2019-02-15
得票数 0
0
回答
在GAN中使用
tensorflow
输入管线
tensorflow
我想用
tensorflow
构建一个条件GAN,并使用输入管道来加载我的
数据
集。问题是,在每次迭代中,我希望使用相同的
数据
批次
来
训练
生成和判别模型,但因为它们的
训练
运算符是在不同的运行中获取的,所以它们
将
收到不同
批次
的
数据
。有什么解决方案吗?或者我应该使用feed_dict?
浏览 3
提问于2017-06-02
得票数 0
6
回答
如何使用累积的梯度更新模型参数?
python
、
tensorflow
、
gradient
我正在使用
TensorFlow
构建一个深度学习模型。也是
TensorFlow
的新手。但是由于
TensorF
浏览 1
提问于2017-02-10
得票数 18
1
回答
使
TensorFlow
使用自定义CUDA例程动态生成的
训练
数据
python
、
tensorflow
、
gpu
假设我们生成自己的
训练
数据
(例如,通过从一些扩散过程中采样并计算其上的一些兴趣量),并且我们有自己的CUDA例程,称为generate_data,它在GPU内存中为给定的一组输入生成标签。因此,我们处于一个特殊的设置中,我们可以以“在线”的方式生成任意数量的
训练
数据
批次
(在每次
批次
迭代时,我们调用generate_data例程来生成新
批次
并丢弃旧
批次
)。由于
数据
是在GPU上生成的,有没有办法让
TensorFlow
(
浏览 0
提问于2019-06-27
得票数 11
1
回答
测试在caffe框架中是如何工作的?
deep-learning
、
caffe
、
pycaffe
因此,基本上可以在
训练
/测试中
拆分
数据
库。让我们假设2/3的
训练
,其余的设置为测试。然后在caffe中,我们
将
训练
数据
分成不同大小的批,假设我们有100批,每批50张图像,所以我们有5000张
训练
图像。现在假设我们有50个测试
批次
,每个
批次
有50个图像。现在让我们假设caffe做了一个时期,然后用测试
批次
进行测试。caffe是如何做到这一点的? 它接受第一批
训练
浏览 5
提问于2016-09-17
得票数 0
2
回答
在
训练
期间更改空间输入维度
tensorflow
我正在
tensorflow
2.3.0中
训练
一个yolov4 (完全卷积)。这个是可能的吗?编辑:我知道darknet的存在,但我在我的repo中使用并实现了一些非常具体的增强,这就是为什么我明确要求
tensorflow
的原因。 更准确地说我想做什么。我想在Y1xX1xC
训练
几个
批次
,然后
将
输入大小改为Y2xX2xC,然后再次
训练
几个
批次
,依此类推。
浏览 0
提问于2021-04-15
得票数 1
1
回答
在
tensorflow
中如何处理不同的队列
批次
大小和进给值
批次
大小?
python
、
tensorflow
、
training-data
、
prefetch
我的代码过去在
tensorflow
0.6上工作,但是它不再适用于最近的
tensorflow
。 我想每隔几次
训练
迭代就进行推理。我的
训练
数据
是从队列中提取的,推理
数据
是从feed_dict中提取的。
训练
批次
大小为128,推理
批次
大小为1。如何使网络接受这两种不同的
批次
大小?
浏览 2
提问于2016-03-19
得票数 1
回答已采纳
3
回答
使用
TensorFlow
(一般ML)对行李袋标签进行基于绿色条纹的分类是否可靠?
classification
、
tensorflow
、
image-classification
我试图
将
图像分类为两个类: greenStripe、noGreenStripe。你有什么建议?是否有更好的方法,还是问题在于小的
训练
数据
集?
浏览 0
提问于2018-09-18
得票数 3
1
回答
无法使用tf.data.map
将
批处理转换为pandas
数据
框
python
、
tensorflow
、
deep-learning
、
tensorflow2.0
、
tensorflow-datasets
我正在使用
Tensorflow
2来
训练
分类器。我用
tensorflow
.data.experimental.make_csv_dataset读取了一个非常大的csv文件(一些整型特征,一些浮点型特征和结果列)。如何使用tf.data.map
将
每个
批次
转换为pandas
数据
框 教程非常令人困惑。有什么建议吗?
浏览 20
提问于2020-08-10
得票数 0
2
回答
像以前一样运行相同的代码,但我的
训练
集自动减少到只有2.5% (在Google Colab中
训练
)?
tensorflow
、
keras
、
google-colaboratory
、
training-data
、
conv-neural-network
之前,我实现了2个CNN模型(Resnet50v2和inceptionResNetv2),
数据
集包含3662张图像。在Google colab的
训练
和验证过程中,这两种方法都工作得很好。现在我再次重新运行完全相同的代码,每个时期的
训练
样本本身减少到每个时期只有92个样本(在2929个/时期之前)。两个型号使用不同的笔记本,它们现在都是这样的。
浏览 10
提问于2020-04-01
得票数 1
1
回答
如何在CNN中处理多幅图像
conv-neural-network
在普通的ANN中,每个
训练
样本由一行矩阵表示,通过这种方式,可以处理成批的
训练
数据
,但在CNN中,如何处理多个图像。
浏览 49
提问于2019-03-11
得票数 0
回答已采纳
2
回答
批处理在
TensorFlow
中的作用
machine-learning
、
tensorflow
、
mathematical-optimization
我是
TensorFlow
和机器学习的新手,并且发现了批处理的概念。
将
DataSets分成批的目的是什么?
TensorFlow
如何使用不同的子集对变量执行优化任务?
浏览 2
提问于2017-10-22
得票数 0
1
回答
有没有办法在不同的GPU上运行批处理的每个部分?
tensorflow
所以我对
Tensorflow
和GPU非常陌生,我想知道我是否可以
将
批处理的不同部分提供给不同的GPU,并在最后汇总结果。我的意思是,假设我
训练
的每一个时期的
批次
大小是1600,我有4个GPU。在每个
训练
阶段,我能给每个GPU喂食400次大小的
批次
,然后汇总结果吗?
浏览 0
提问于2018-09-10
得票数 0
回答已采纳
1
回答
一种用于批量
训练
的张量流热编码
python
、
tensorflow
、
one-hot-encoding
、
mini-batch
我的
训练
数据
包含大约1500个标签(字符串,每个记录一个标签),我想进行批量
训练
(只需将一批加载到内存中,以更新神经网络中的权重)。我想知道
tensorflow
中是否有一个类为每个
批次
中的标签进行一次热编码?中我们可以做的事情onehot_encoder.fit(entire training labels) 然后,在
tensorflow
会话中的每个批处理中,我可以
将
批处理标签转
浏览 7
提问于2017-10-01
得票数 0
1
回答
修正
训练
后丹森流模型的批量
python
、
tensorflow
、
tensorflow-lite
、
quantization
、
batchsize
我正在使用可变
批次
大小(输入: None,320,240,3)在
Tensorflow
中
训练
一个模型。问题是在
训练
后的量化过程中,我不能有任何动态输入,因此没有“无”,而使用edgetpu编译器时,批大小不能大于1。 我目前的方法是再
训练
一次,固定的
批次
为1,但这有点乏味。是否可以
将
投入从零、320、240、3改为1,320、240、3或320、240、3,而不必再进行一次培训?
浏览 5
提问于2021-10-12
得票数 2
1
回答
GPU在
tensorflow
上
训练
LSTM时温度为88℃
tensorflow
、
gpu
、
lstm
、
temperature
、
rnn
我在
tensorflow
中有一个1层的LSTM模型,我的GPU的温度读数在
训练
阶段变得相当高。我的GPU是一个水冷gtx 1080“超级时钟”版本,在一个24/7的冷藏室。以下是它的一些细节: 我注意到,当我提高小批量的尺寸时,温度会上升很多。我也
训练<
浏览 3
提问于2017-07-12
得票数 2
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
手把手教你用keras-CNN网络识别cifar10
深度学习第44讲:训练一个word2vec词向量
神经网络训练优化方法
Facebook技术分享:如何在PyTorch中训练图像分类模型
机器学习100天-Day11 Tensorflow实现RNN算法
热门
标签
更多标签
云服务器
ICP备案
实时音视频
即时通信 IM
对象存储
活动推荐
运营活动
广告
关闭
领券