腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
2
回答
如何对内存
中
的
数据
进行
重新
排序以优化缓存访问?
、
、
我想
混
洗
一个大型
数据
集
(类型为List<Record>),然后
对
其
进行
多次
迭代
。通常,
混
洗
列表只会混
洗
引用,而不是
数据
。由于频繁的缓存丢失,我的算法的性能受到了极大的影响(3倍)。我可以对
混
洗
后
的
数据
做一个深度拷贝,使其
对
缓存友好。然而,这将使内存使用量翻倍。 有没有一种更节省内存的方法来对
浏览 2
提问于2014-08-01
得票数 1
4
回答
如何对连接的
Tensorflow
数据
集
进行
混
洗
、
我有多个具有相同结构的
tensorflow
数据
集
。我想把它们组合成一个
数据
集
。使用 但我发现,当
对
这个组合
数据
集
进行
混
洗
时,该
数据
集
并没有
在
整个
数据
集
的规模上
进行
混
洗
。但在每个分离的
数据
集中
进行
了
混
<em
浏览 1
提问于2018-08-09
得票数 5
1
回答
在
tensorflow
中
重新
初始化
迭代
器
后
对
数据
集
进行
混
洗
、
、
、
我使用
tensorflow
dataset api将
数据
提供给模型。据我所知,我应该对
数据
集
进行
混
洗
,以从模型
中
获得最佳性能。然而,由于我训练了一个时期,然后测试了一个时期,以此类推。我不太确定我是否
在
以不同的方式执行洗牌。train_iterator = train_dataset.make_initializable_iterator(shared_name="Training_iterator") 因此,每当
浏览 31
提问于2019-02-22
得票数 0
回答已采纳
1
回答
是否可以使用
数据
集
元素的索引来
混
洗
数据
集
?
、
我正在使用
tensorflow
(TF1.14和TF2.0)
中
的tf.data.experimental.make_csv_dataset来读取一个包含3列的csv文件:索引、column1和column2
对
我来说,只有第1列和column2是重要的。column1
中
的每个元素都是一个形状为(1,4)的数组,而column2的形状为(1,1)。在此
数据
集
上,当我使用tf.data.shuffle(buffer_size = some_number)
进行
混</em
浏览 0
提问于2019-08-19
得票数 1
1
回答
为什么直接使用图片
数据
集
和pytorch自己的
数据
集
精度差异这么大?
、
、
、
例如,对于cifar10
数据
集
,直接使用pytorch自带的
数据
集
,
在
相同的网络结构下,准确率可以达到96%,但我将cifar10转换成图片
后
,我
对
其
进行
了测试,准确率仅为92%。为什么?test_dataset = dset.CIFAR10(args.data_path, train=False, transform=test_transform, download=True) 修改
后
的代码如下
浏览 26
提问于2020-08-11
得票数 1
1
回答
如何在将TFrecords文件馈送到模型之前
对
其
进行
混
洗
、
、
、
我有一个相对较大的
数据
集
,它是非常异构的。
在
模型的训练过程
中
,我已经使用了shuffle my dataset,如文档示例: (但无法将其全部
混
洗
,因为它会占用太多内存),我还将我的
数据
集
分成多个小碎片,每个碎片大小相等。然而,我有理由认为这种“近似”的
混
洗
是不够的,我还认为馈送已经
混
洗
的
数据
将提高训练速度。所以现在我的问题是:
在
我将我的
浏览 2
提问于2020-12-08
得票数 1
2
回答
处理更大的
tensorflow
数据
集
、
、
、
我是
Tensorflow
的新手,一直
在
根据我
在
ts网站上找到的教程
进行
一些模型训练。我已经能够将满足我的初步需求的功能组合在一起。我
在
本地读取了一个csv文件,它提供了一些指向与同一csv行上的标签相关联的图像的链接。我可以理解这是因为我一次读取所有
数据
,但我在这里采取下一步能够管理更大的
数据
集
时有点受阻。我猜下面这部分是需要改进的部分:这里有没有人能帮我继续往前走,引导我到一些例子或片段,在那里
浏览 0
提问于2020-05-02
得票数 0
2
回答
模型加载
在
重新
启动运行时
后
得到不同的结果
、
、
、
大家好,我是神经网络的新手,我写了一个模型CNN架构Resnet50
在
训练我的模型之后保存模型,然后加载模型而不用重启运行时得到相同的结果,但是为什么当重启运行时google colab并运行xtrainprint("Test Loss " + str(valdata[0])) print("Test Acc: " + str(valdata[1])) -after训练和保存模型然后运行负载模型而不
重新
启动运行时google colab :正如您所看到的,测试获得损失: 0.9411 -准确性: 0.6514 训练损失
浏览 51
提问于2021-06-24
得票数 0
1
回答
是什么导致了我
在
tensorflow
中
的分段错误?
、
、
在
Tensorflow
中
,我目前正在开发一个创建4D numpy矩阵并输出保存的
tensorflow
数据
集
的程序。我真的不关心它将占用多少内存,因为它至少适合80 of的ddr4内存。tf.data.experimental.save(tf.data.Dataset.from_tensor_slices(matrix),output_path+"_unshuffled",compression="GZIP") 种子是为了以后对
数据
浏览 1
提问于2021-01-25
得票数 0
1
回答
策略梯度:为什么
混
洗
数据
会导致性能下降?
、
、
以上是代理
在
gym环境LunarLanderContinuous-v2上运行时每100
集
的平均得分。橙色和蓝色线条是代理将过渡顺序馈送到策略梯度算法(例如,ppo)时的结果,而红线是代理
在
将收集的过渡馈送到算法之前
对
收集的过渡
进行
打乱时的结果。我不明白为什么简单地对
数据
进行
混
洗
会产生如此大的不同。据我所知,神经网络假设输入
数据
是IID,因此DQN等算法会对
数据
(或重放缓冲区
中
的随机
浏览 15
提问于2019-02-10
得票数 0
3
回答
就地
混
洗
多个HDF5
数据
集
、
、
、
我
在
同一个文件my_file.h5
中
保存了多个HDF5
数据
集
。这些
数据
集
具有不同的维度,但第一个维度
中
的观测值数量相同:labels.shape = (1000000)重要的是,信息/标签
数据
正确地连接到每组要素,因此我希望使用相同的种子
对
这些
数据
集
进行<
浏览 2
提问于2015-06-22
得票数 6
1
回答
spark作业的优化
、
、
我是spark的新手,想知道关于spark工作的优化。
浏览 0
提问于2017-07-23
得票数 0
1
回答
有效地
对
已分区的
数据
集
进行
重新
分区,以便将小文件合并为更大的文件
有没有一种方法可以
重新
分区已经分区的
数据
集
,以便有效地减少单个分区
中
的文件数量,即不
进行
混
洗
?例如,如果
数据
集
由某个key分区 part1 .repartition("key") .partitionBy("key") .parquet("/ou
浏览 12
提问于2019-08-15
得票数 0
2
回答
随机梯度下降用于使用Shuffle
数据
的回归比非Shuffle
数据
表现得更好。为什么?
、
、
我使用随机梯度下降(SGD)算法
进行
回归任务,并训练网络以
进行
输入
数据
点的多次
迭代
。我发现,
在
相同的
迭代
次数下,与未洗牌的输入
数据
相比,
对
输入
数据
进行
混
洗
会产生更好的结果。举个例子,我正在训练网络,学习输入范围在-1,1之间的"Square“函数,总共有100个点和500次
迭代
。因此,总的训练点将是100*500,如果我将所有这些训练点都洗牌,系统会表现
浏览 1
提问于2015-04-08
得票数 2
2
回答
当斯帕克呼叫ShuffleBlockFetcherIterator时发生了什么?
、
我的
数据
集
有一个分区,所以我不确定为什么它会这么混乱。有人知道这里到底发生了什么吗?
浏览 0
提问于2015-12-17
得票数 15
1
回答
如何控制联邦框架的验证
数据
我正在尝试指定通过联邦框架传递给每个客户端的验证
数据
,以便
对
其
进行
训练/验证。我知道
tensorflow
-federated会随机抽取每个客户端的
数据
集
并
对
其
进行
验证。但是,如果我的
数据
(
在
一个子集内)非常相关,我如何(
在
TFF框架
中
)为每个客户端指定验证
数据
集
?你认为在这里
混
洗
数据
浏览 0
提问于2019-06-25
得票数 1
1
回答
在
使用`validation_steps`时,使用新采样的验证示例和
TensorFlow
Keras fit吗?
、
、
之所以将validation_steps设置为不同的工作方式,是因为开发人员希望确保每次验证运行都使用相同的
数据
。
在
我的例子
中
,我宁愿这不是validation_steps的工作方式。我的
数据
集
(包括训练和验证)都相当大,我希望经常
进行
验证,而不是花费过多的时间。但是,我也不希望仅在有限的验证
数据
集
上
进行
验证。这可以通过
混
洗
整个验证
集
来实现,但同样,由于
数据
<em
浏览 0
提问于2020-04-02
得票数 0
1
回答
Tensorflow
数据
集
使用
、
、
我正在尝试创建一个简单的字符串-标签
对
的
数据
集
,但是无法让
tensorflow
正确地连接这些
对
我尝试使用Dataset.from_tensor_slices
初始化
器
和dataset.make_one_shot_iterator
迭代
器
: import
tensorflow
as tf 'aaaa',] labels =
浏览 7
提问于2019-04-14
得票数 0
回答已采纳
2
回答
Spark窄幅转换会产生
重新
洗牌吗?
我理解
在
Spark
中
,map()是一种狭义的转换,因此没有必要
进行
混
洗
。但如果map()可以更改密钥,那么
在
映射完成
后
可能需要
重新
洗牌
数据
,即它不再是一
对
一的分区。那么,为什么它被认为是狭义的转换呢?
浏览 2
提问于2020-04-29
得票数 1
1
回答
具有不同形状的
Tensorflow
数据
集
、
我使用卷积网络
对
不同形状的图像
进行
分类。我找不到
在
Tensorflow
中加载图像的方法。基于,它应该与tf.data.Dataset()一起工作。我以这种方式创建
数据
集
:dataset = dataset.map(read_file)Shapes are: [element]: [295,256,3], [parent slice]: [276,128,3] 是否可以使用<e
浏览 9
提问于2017-10-17
得票数 2
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
如何使用TensorFlow中的Dataset API
如何在TensorFlow中高效使用数据集
逻辑回归模型的原理与代码实现(三)-使用TensorFlow建立模型
如何在Python和numpy中生成随机数
TensorFlow线性回归与逻辑回归实战
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券