腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
微调
模型
删除
之前
添加
的
层
、
、
我使用
的
是Keras 2.2.4。我训练了一个
模型
,我想用新
的
数据内容(图像分类)每30个时期
微调
一次。 每天我都会向类中
添加
更多
的
图像来为
模型
提供支持。每隔30个时期对
模型
进行重新训练。我使用两个条件,第一个条件是以前没有训练过
模型
,第二个条件是
模型
已经训练过了,然后我想用新
的
内容/类对其进行
微调
。=========T
浏览 10
提问于2019-02-27
得票数 0
回答已采纳
2
回答
如何使用现有的和更新
的
类对keras
模型
进行
微调
?
、
、
、
、
我有一个名人数据集,我想在其上对keras内置
模型
进行
微调
。到目前为止,我已经探索和做了什么,我们
删除
原始
模型
的
顶层(或者最好是通过include_top=False)并
添加
我们自己
的
层
,然后训练我们新
添加
的
层
,同时保持以前
的
层
不变。这整件事很像是直觉。现在我需要
的
是,我
的
模型
学会识别名人面孔,同时也能够检测到
浏览 3
提问于2019-09-20
得票数 4
1
回答
在预先训练
的
模型
中冻结某些过滤器,Tensorflow
ResNet152说,是否有可能加载一个预先训练过
的
模型
,然后在特定
层
中冻结某些权重,并在这些特定
层
中
微调
其他
层
的
权重?例如:我似乎想不出一个可靠
的
方法来实现这一点。我想也许加载两次预先训练
的
模型
,
浏览 7
提问于2022-02-11
得票数 0
1
回答
在重新培训预培训
模型
时,with : ValueError: Input 0与layer flatten_1: expected min_ndim=3不兼容,ndim=2发现
、
、
我
的
模型
总结是:==========================___________________当我使用以下功能重新训练这个
模型
时
浏览 0
提问于2019-06-28
得票数 2
1
回答
当
微调
一个预先训练
的
模型
时,我是否总是需要先训练新
的
分类头?
、
假设我想
微调
mobilenetV2
模型
的
最后50
层
。我要做
的
第一件事就是增加一个新
的
分类头。我有时读到,在解冻我想
微调
的
50
层
之前
,这个新
的
头应该完全接受
的
训练。这真的是必要
的
吗,还是我可以立即重新训练这50
层
再加上新
的
分类头?
浏览 2
提问于2022-04-15
得票数 0
1
回答
微调
输入大小较大
的
模型
、
、
、
、
我在想,用更大
的
输入量对
模型
进行
微调
是否有意义?理想情况下,我希望拥有的属性: 更大
的
输入尺寸:在
模型
中进料前不要向下取样.也许有更大
的
步幅?具体来说,我正试图用特定
的
标签集对Keras中
的
InceptionV3进行
微调
。我想要更大
的
数据大小,因为我希望
模型
能够隐式地学习一些重要
的
字符。对于InceptionV3默认大
浏览 0
提问于2019-01-05
得票数 0
回答已采纳
1
回答
微调
的
正确方法--把一个完全连接
的
层
训练成一个单独
的
步骤
、
我在caffenet中使用
微调
,它工作得很好,但是我在Keras 关于
微调
的
博客中读到了这篇文章(他们使用经过训练
的
VGG16
模型
): “为了进行
微调
,所有
层
都应该从经过适当训练
的
权重开始:例如,你不应该把一个随机初始化
的
完全连接
的
网络放在一个预先训练过
的
卷积基础上这是因为随机初始化
的
权值引发
的
大梯度更新会破坏卷积基中
的
学习权重。在我们
的
浏览 0
提问于2017-03-20
得票数 2
1
回答
如何移除Huggingface
的
变压器BERT预训练
模型
中
的
层
?
、
、
、
、
目前,我正在尝试使用经过预先训练
的
BertModel进行细化。如何在
微调
之前
从
模型
中
删除
一些
层
?我试过这样
的
方法: copyOfModel.bert.encoder.layer = newModuleList return copyOfM
浏览 14
提问于2022-11-03
得票数 0
2
回答
从较低
的
fc
层
微调
CNN
、
、
、
、
我注意到,CNN对新数据集
的
大多数
微调
只在“最后”完全连接(fc)
层
上进行。我对从“第一
层
”完全连接
的
层
进行
微调
感兴趣:也就是说,我想使用卷积和池
层
的
中间特性(假设它是在ImageNet上训练
的
),然后将所有fc
层
安装到我
的
新数据集中。它是否可能为我
的
新数据集学习一组更合适
的
参数?
浏览 5
提问于2015-09-12
得票数 2
回答已采纳
1
回答
增加现有Chainer网络
的
额外输出
、
假设我创建了一个简单
的
完全连接
的
网络:import chainer.functions as Ffrom chainerF.relu,) y = model(x) 我想用n_out输出来训练这个
模型
,然后,在对它进行训练之后,在
微调
网络
之前
添加
额外
的
输出。我已经找到了<
浏览 5
提问于2019-10-23
得票数 1
回答已采纳
1
回答
使用cifar 100数据预训练cifar 10网络
、
、
、
为了进行优化,您将使用来自CIFAR-100数据集
的
“bus”和“tiger”类
的
数据。您
的
任务是了解如何对预先训练
的
CNN
模型
进行
微调
,使用训练数据(我认为每个类有500张图像)“bus”和“tiger”类对网络进行
微调
,并使用相同2个类
的
测试数据(每个类100张图像)验证准确性。可以在预先训练
的
模型
的
所选
层
上执行
微调
。当您
微调
最后一
层
浏览 3
提问于2019-11-14
得票数 2
1
回答
为什么不用线性回归来细化神经网络
的
最后一
层
呢?
、
、
、
在转移学习中,通常只对网络
的
最后一
层
使用梯度下降进行再训练。然而,普通神经网络
的
最后一
层
只执行线性变换,那么为什么我们使用梯度下降而不是线性(或logistic)回归来细化最后一
层
呢?
浏览 0
提问于2021-04-02
得票数 1
12
回答
如何使用带灰度图像
的
预先训练过
的
神经网络?
、
、
、
、
我有一个包含灰度图像
的
数据集,我想对它们进行最先进
的
CNN培训。我非常想
微调
一个预先训练过
的
模型
(像那些)。问题是,我可以找到
的
几乎所有
模型
都是在包含RGB图像
的
ImageNet数据集上进行训练
的
。我不能使用其中
的
一个
模型
,因为在我
的
例子中,它们
的
输入
层
需要一批形状(batch_size, height, width, 3)或(64, 224,
浏览 2
提问于2018-08-24
得票数 78
回答已采纳
1
回答
通过跳过头
层
加载tensorflow检查点
、
、
我正在使用一个
模型
(SimCLR)从图像中学习表示。在训练前,
模型
是针对单个虚拟标签进行训练
的
。现在我想用8类数据对
模型
进行
微调
。当将经过预先训练
的
模型
检查点加载到具有8级头部
的
尚未经过精细调整
的
模型
时,我遇到了一个ValueError。ValueError: Tensor's shape (2048, 1) is not compatible with supplied shape [2048, 8] 在
浏览 0
提问于2021-08-11
得票数 0
1
回答
使用tensorflow对最后一
层
之外
的
其他
层
进行
微调
,以用于初始v3预训练
模型
、
在我
的
分类任务中,我必须对inception V3预训练
模型
进行
微调
。然而,当我在互联网上搜索时,似乎只能
微调
这个
模型
的
最后一
层
。我希望
微调
所有的
层
,或者至少是完全连接
的
层
,而不仅仅是顶层。有谁有解决这个问题
的
办法吗? 谢谢
浏览 2
提问于2017-05-22
得票数 0
1
回答
如何使用resnet50
模型
进行
微调
?
、
、
、
、
我在互联网上看到了许多关于如何
微调
VGG16和InceptionV3
的
例子。例如,一些人会在
微调
VGG16时将前25
层
设置为冻结。对于InceptionV3,头172个
层
将被冻结。但是resnet呢?当我们进行
微调
时,我们将冻结一些基本
模型
的
层
,如下所示: base_model = ResNet50(实际上,当我使用VGG16、VGG1
浏览 6
提问于2017-10-11
得票数 2
1
回答
从预先训练
的
模型
中得到128模糊特征向量,而不需要在Pytorch中进行
微调
。
、
、
、
、
我需要从一组图像
的
视觉特征,以便有一种嵌入
的
输入图像。我需要
的
维数是128。我考虑
删除
预先训练过
的
模型
(如ResNet50 )
的
最后一
层
,而不是用平坦层替换最后一个完全连接
的
层
,并对每幅图像进行前向传递。问题是,在扁平
层
之后,ResNet50给出了一个512个模糊
的
特征向量。如果我
添加
另一个输出dim为128
的
完全连接
层
,我需要
浏览 1
提问于2021-10-03
得票数 0
回答已采纳
2
回答
神经网络
的
微调
、
、
我最近读过关于
微调
的
文章,我想知道
的
是,当我们对
模型
进行
微调
时,是否有必要冻结
模型
,只训练
模型
的
顶部,然后解冻一些
层
,然后再重新训练
模型
,或者直接从解冻一些
层
开始?到目前为止,我已经读到没有直接解冻
层
,因为这样我们就有可能失去早期
层
捕获
的
重要功能。
浏览 0
提问于2019-11-25
得票数 0
回答已采纳
3
回答
将Vgg16 FC层替换为UNet
、
我想
删除
VGG16
的
FC
层
,并
添加
UNet
层
。我不知道如何对VGG16进行
微调
。
浏览 7
提问于2021-06-20
得票数 0
1
回答
在tensorflow中使用不同
的
优化器来训练同一
层
、
我有一个
模型
,它由卷积
层
和完全连接
的
层
组成。我在fer数据集上训练了这个
模型
。这是一个输出数等于8
的
分类问题。在训练了这个
模型
之后,我保留了完全连接
的
层
,并且只用一个新
的
层替换了最后一个
层
,该
层
有3个输出。因此,其目的是在训练输出
层
的
同时对完全连接
的
层
进行
微调
。因此,我在一开始就使用了一个优化
浏览 0
提问于2018-10-24
得票数 2
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
LoRA:大模型的低秩自适应微调模型
cPanel中如何移除之前添加的域名
如何恢复之前删除的文件夹?
搜索,添加,修改,删除的测试方法
ULMFiT面向文本分类的通用语言模型微调
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券