腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
2
回答
如何
从
预先
训练
的
模型
中
去除
正则
化
?
python
、
python-3.x
、
keras
、
regularized
我已经在Keras
中
得到了一个部分
训练
的
模型
,在进一步
训练
它之前,我想要更改dropout,l2
正则
化
器,高斯噪声等
的
参数。我将
模型
保存为.h5文件,但当我加载它时,我不知道
如何
删除这些
正则
化
层或更改它们
的
参数。我该怎么做,有什么线索吗?
浏览 39
提问于2019-06-21
得票数 1
1
回答
如何
从
vgg19
中
删除自适应平均池层?
deep-learning
、
vision
、
vgg-net
我已经加载了
预先
训练
好
的
vgg19
模型
。
如何
去除
分类器之前
的
自适应平均池层?
浏览 3
提问于2019-12-10
得票数 1
1
回答
如何
减少预
训练
网络
中
的
过度拟合
deep-learning
、
cnn
、
pytorch
、
overfitting
、
regularization
我有一个有10个类
的
定制数据集,我正在使用一个来自火炬视觉
的
预先
训练
过
的
resnet18
模型
。我可以清楚地看到它
的
过度拟合,因为:该
模型
被
训练
为75个历元,批次大小为4,
从
epoch 30开始,验证精度停止增加,
训练
精度不断提高。我为提高泛化性能和减少过度拟合所做
的
事情: 我用我
的
训练
数据
的
计算平均值和性病来规范我
的</
浏览 0
提问于2020-07-12
得票数 1
1
回答
如何
将.hdf5转换为.h5 keras
模型
tensorflow
、
keras
我有一个
从
here中使用
的
预先
训练
好
的
hdf5
模型
背景
去除
模型
。我希望将它转换为h5,因为coremltools转换器需要这种类型。
浏览 173
提问于2020-08-29
得票数 2
回答已采纳
1
回答
如何
恢复
预先
训练
过
的
模型
以初始
化
参数
python
、
tensorflow
我已经下载了一个具有
预先
训练
过
的
模型
的
网络。我向网络
中
添加了几个层和参数,我想使用这个
预先
训练
过
的
模型
来初始
化
原始参数,并由我自己随机地初始
化
新添加
的
参数。tf.global_variables_initializer())但是我遇到了错误:“键global_step在
浏览 1
提问于2018-09-27
得票数 4
回答已采纳
1
回答
从
预先
训练
过
的
模型
中提炼出
的
效果总是比从头开始
的
训练
好吗?
machine-learning
、
deep-learning
在最坏
的
情况下,我们可以把
预先
训练
过
的
权重当作随机初始
化
,就像我们从零开始
训练
一样,对吗?如果是这样的话,那么最好总是
从
经过
预先
训练
的
模型
开始,因为较低层次
的
权重可能已经学习到了可以在所有数据集之间传输
的
图像
的
一般模式吗?我担心
的
是,如果我想要用于细化
的
数据集是高度专业
化
的
、
浏览 0
提问于2016-11-27
得票数 2
1
回答
TensorFlow对象检测应用编程接口:使用`fine_tune_checkpoint`进行培训-解冻较早
的
层?
tensorflow
、
object-detection-api
我正在使用fine_tune_checkpoint (proto link)非常成功地
训练
模型
,该
模型
来自
模型
动物园
的
一个
预先
训练
的
网络。 然而,据我所知,使用迁移学习
的
精调变体,较早
的
层是冻结
的
。在
训练
过程
中
,只有最后一层实际更新。 这个假设是正确
的
吗,也就是在TF对象检测API
中
也是这样实现
的
吗? 假设是这
浏览 12
提问于2019-01-02
得票数 1
回答已采纳
2
回答
如何
在输出
中
增加噪声以避免
训练
点
的
过度拟合?
machine-learning
、
deep-learning
、
neural-network
、
artificial-intelligence
是否将噪声添加到输出数据
中
作为
正则
化
技术,以避免对
训练
数据进行过度拟合?它与经过
训练
的
模型
的
复杂性有什么关系?
浏览 6
提问于2019-12-29
得票数 1
1
回答
如何
从
xgboost
中
检索
正则
化
项
python
、
machine-learning
、
xgboost
为了评估偏差-方差权衡,我更喜欢绘制预测误差与
训练
估计器
的
复杂性
的
关系图。documentation states that the complexity is taken as the regularisation term of the objective function
的
情况下因此,原则上应该很容易生成这样
的
图。 然而,我不知道
如何
为
训练
好
的
模型
检索计算出
的
正则
化
项。我使用
浏览 12
提问于2020-08-28
得票数 0
回答已采纳
1
回答
正则
化
是否包括在损失历史记录,Keras返回?
keras
、
regularization
现在,我正在测试
正则
化
以及
如何
使用它们。在我看来,在有和没有
正则
化
的
训练
课上,损失历史
的
结果似乎增加了
正则
化
的
术语,对吗?当我
的
模型
没有
正则
化
项时,损失值从小于1开始,但是当我用
正则
化
(L1L2)对
模型
进行再
训练
时,相同问题
的
损失值
浏览 0
提问于2018-08-12
得票数 2
回答已采纳
2
回答
TensorFlow:在部分加载
预先
训练
的
权重后使用tf.global_variables_initializer()
tensorflow
我建立了一个
模型
,使用一个
预先
训练
的
VGG-16作为基本网络,然后在上面添加几个层。在培训时,我
的
模型
部分由属于
预先
训练
的
VGG-16
的
变量组成,即已经初始
化
的
变量(整个
模型
是
从
SavedModel协议缓冲区加载
的
),部分是来自我添加
的
层
的
未初始
化
变量。在开始培训之前,我必须
浏览 3
提问于2017-10-14
得票数 3
回答已采纳
1
回答
如何
在Keras中加载卷积神经网络前几层
的
权值,删除预
训练
模型
?
python
、
tensorflow
、
keras
、
neural-network
、
tf.keras
我在凯拉斯有个受过
训练
的
模特。是否可以使用“.h5”文件
中
预
训练
模型
的
前4个conv层
的
权重来初始
化
新
模型
的
前4个conv层?是否必须先加载整个
预先
训练
过
的
浏览 6
提问于2020-08-19
得票数 0
1
回答
如何
从
预先
训练
好
的
TensorFlow
模型
中
去除
层?
tensorflow
、
tensorflow2.0
我在TensorFlow中用三个隐藏层
训练
了以下
模型
: inputs = tf.keras.Input(shape=(timesteps, feature_size)) model = tf.keras.Model(inputs=inputs, outputs=output) 现在,我想使用
模型
,但跳过第二个隐藏层,即直接将输出
从
第一层传递到第三层,而不通过第二层。我知道我可以通过以下方式获得第
浏览 172
提问于2020-04-29
得票数 0
回答已采纳
2
回答
如何
在Tensorflow
中
训练
单词嵌入
neural-network
、
tensorflow
、
deep-learning
、
conv-neural-network
、
word2vec
因此,我更改了这里描述
的
模型
,以执行多类文本分类,而不是二类分类。下面是我想要更改
的
相关代码,以使用谷歌
预先
训练
好
的
word2vec<e
浏览 0
提问于2016-10-08
得票数 1
2
回答
从零开始培养深度学习模式
的
优缺点是什么?
neural-network
、
deep-learning
、
tensorflow
、
data-science-model
、
yolo
我想知道优点和disadvantages.Also,什么是优点和缺点转移学习?
浏览 0
提问于2020-05-10
得票数 1
1
回答
在这种情况下,哪种模式更好?
keras
有两种神经网络
模型
。第二种
模型
具有
正则
化
(Dropout),不显示过度拟合。因此,这种模式比第一种模式
的
训练
时间长得多。但最小验证损失值并不高于第一
模型
的
最小验证损失值。尽管这个
模型
可以
训练
得更
浏览 3
提问于2020-10-21
得票数 0
回答已采纳
1
回答
tensorflow
从
hub keras层嵌入获取元数据
tensorflow
、
tensorflow-hub
基于,要使用可视
化
嵌入,您必须拥有包含来自
训练
数据
的
词汇表
的
metadata.tsv。我说
的
对吗? 我
的
问题是,在使用时,
如何
从
预先
训练
好
的
模型
中
获取词汇表或元数据?
浏览 0
提问于2019-12-23
得票数 0
1
回答
学习Logistic回归中
的
C参数是什么?
python
、
machine-learning
、
scikit-learn
、
logistic-regression
、
overfitting-underfitting
C参数在sklearn.linear_model.LogisticRegression
中
的
含义是什么?它对决策边界有何影响?C
的
高值是否使决策边界非线性?如果我们可视
化
决策边界,逻辑回归
的
过度拟合是什么样子?
浏览 12
提问于2021-05-13
得票数 12
1
回答
前馈神经网络
的
正则
化
matlab
、
neural-network
我刚在库瑟拉看了吴家富
的
在线公开课讲座。在关于神经网络
的
讲座结束时,他解释了回归,但恐怕我遗漏了一些东西。在回归后,成本函数
的
值计算如下:jValMain是y上
的
和集,是NN
的
输出。jValReg是应用回归,如下所示:Theta是一组权重,m是数据库中所
浏览 4
提问于2013-10-07
得票数 1
1
回答
当神经网络
的
偏差单元被
正则
化时,究竟会发生什么?
machine-learning
、
neural-network
、
backpropagation
在最初
从
在线教程中了解到这些神经网络之后,我已经实现了很少
的
神经网络,所有这些网络都提到,在
正则
化
过程
中
,不考虑偏差单元,但是如果它们被
正则
化
,则不会产生任何重大差异。我不明白: 它真的从来没有产生任何重大
的
差别,或有一些边缘
的
情况?
浏览 4
提问于2017-08-07
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
手把手教你数据不足时如何做深度学习NLP
直观感受深度学习中的正则化作用及其效果
Dropout可能要换了,Hinton等研究者提出神似剪枝的Targeted Dropout
三千字轻松入门TensorFlow 2
《理解dropout》分享
热门
标签
更多标签
活动推荐
运营活动
广告
关闭
领券