我已经创建了一个带有一堆变量的模型(模型A)。我计划使用Model A中的一些层在新模型(Model B)上与Model A进行迁移学习。但是,Model B与Model A具有相同的体系结构,因此我不能在运行model B之前从Model A加载所有变量,否则命名等会出现错误。因此,我正在尝试创建一个新的ckpt文件,它只存储我想要从Model A获得的权重。然后,我将使用这个新的ckpt文件加载到Model B中。我有以下内容:
sess = tf.Session()
saver = tf.train.import_meta_graph('ModelA.ckpt.meta')
saver.restore(sess, 'ModelA.ckpt')
# I did not explicity name my variables in model A so I am just placing them in the list and taking the ones I want
store_list = []
for v in tf.trainable_variables():
store_list.append(v)
var_list={"W_1": store_list[0], "b_1": store_list[1]}
v2_saver=tf.train.Saver(var_list)
sess.run(tf.global_variables_initializer())
v2_saver.save(sess, 'model_A_subset.ckpt')但是,当我恢复model_A_subset.ckpt时,我仍然保留了ModelA.ckpt中的所有变量。我做错了什么吗?有没有一种方法可以很容易地从ModelA.ckpt中删除我不需要的变量并使用它?
发布于 2017-03-30 05:32:32
您确定检查点中有不必要的变量吗?我之所以这样问,是因为在恢复检查点之前,你需要创建一个图,如果你正在创建一个包含A的所有变量的图,你就会遇到这个问题。
要检查检查点并查看实际存在的内容,可以尝试使用inspect checkpoint tool。
https://stackoverflow.com/questions/43102199
复制相似问题