腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
Keras正则
化
与自定义损失
tensorflow
、
keras
、
deep-learning
由于我希望向这些层添加L2正则
化
,所以我传递了一个keras.regularizers.l2实例作为这些层的kernel_regularizer参数的参数(作为示例,请参见的构造函数)。现在,如果我使用Keras实现二进制交叉熵损失()来
训练
这个模型,我可以肯定在计算损失时会考虑到我指定的L2正则
化
。执行前向传播 我的问题是:正规
化
是在哪个阶段进行的请记住
浏览 1
提问于2020-09-18
得票数 3
回答已采纳
1
回答
稀疏
数据的特征缩放/归一
化
sparse-matrix
、
missing-data
、
neural-network
、
missing-features
我在
训练
具有
稀疏
输入数据的神经网络以解决有监督的回归问题时遇到了问题。当我对输入数据执行均值归一
化
(减去均值,然后除以标准差)时,我得到了很多NaN值。我想知道是否有人有处理这类问题的经验。扩展
稀疏
输入数据的正确方式是什么? 谢谢,乔
浏览 3
提问于2012-05-20
得票数 3
1
回答
如何向Keras中的自定义层传递与时间相关的参数
python
、
tensorflow
、
keras
原论文作者建议,在
训练
中应逐步增加中层的
稀疏
性: 假设我们的目标是k= 15的
稀疏
水平,然后,我们从一个大的
稀疏
级别(例如k= 100)开始,k-
稀疏
的自动编码器可以
训练
所有的隐藏单元。然后,我们线性地降低
稀疏
水平从k= 100到k= 15在上半个世纪。这将自动编码器初始
化
到一个良好的状态,所有隐藏的单元都有很大的被选择的机会。然后,我们在下半期保持k= 15。有了这个调度,我们可以
训练
所有的过滤器,即使是低
稀疏
水
浏览 0
提问于2018-06-29
得票数 2
2
回答
为什么在
训练
中损失曲线会有很大的跳跃(向上)?
python
、
tensorflow
、
machine-learning
我已经
训练
了两次完全相同的模型(完全相同的
训练
数据集),但是结果是非常不同的,我对它们的损失曲线的行为感到困惑。 模型描述:我的项目是
稀疏
视点CT图像重建.我的目标是利用迭代方法+ CNN在每次迭代中重建
稀疏
视图图像。这与陈提出的学习算法非常相似。该过程包含30个迭代次数,每次迭代时,我使用CNN来更好地
训练
正则
化
项。 由于我有30个迭代,3+ (
浏览 6
提问于2019-10-30
得票数 3
2
回答
摆脱过度适应有什么意义?
deep-learning
、
overfitting
、
regularization
我很难理解为什么我会使用辍学,正则
化
,数据增强,等等,以摆脱过度拟合在第一。我知道,如果您的模型太大或者数据太
稀疏
,那么您的模型可能会开始记忆数据,并且在新数据上表现不佳。但是,在哪些情况下,添加退出、正则
化
等会提高验证集的准确性?例如,如果我的
训练
acc为95%,val的准确率为70%,那么排除过度是否只会使
训练
精度降低到val的准确度?还是有办法真正提高
训练
的准确性?我想会有一些直觉,但这将是非常感谢!
浏览 0
提问于2019-05-17
得票数 1
回答已采纳
1
回答
initial_sparsity参数在基于sparsity.PolynomialDecay() TensorFlow 2.0量级的权重剪枝中的应用
python
、
tensorflow
、
neural-network
end_step,}在整个
训练
过程中都使用了我们从50%的
稀疏
水平开始,逐步
训练
达到90%的
稀疏
度。X%
稀疏
意味着,重量张量的X%将被剪除。 我的问题是,你不应该从0%的initial_sparsity开始,然后剪短90%的重量吗?这是否意味着50%的重量从一开始就被修剪,然后实现了90%的
稀疏
性修剪?spar
浏览 3
提问于2020-01-31
得票数 6
1
回答
稀疏
矩阵上R中的朴素贝叶斯模型
r
、
package
我有一个非常大的
稀疏
矩阵(使用sparse.model.matrix(~.- 1,数据=
训练
),并希望在此基础上
训练
一个朴素贝叶斯模型。除了glmnet之外,还有没有其他包可以接受
稀疏
矩阵,或者这是我唯一的选择?
浏览 0
提问于2013-06-21
得票数 4
1
回答
在Tensorflow中切片
稀疏
张量?
machine-learning
、
neural-network
、
tensorflow
目前,
稀疏
张量不支持索引,并且tf.sparse_split()操作不能按照给定的比例拆分
稀疏
张量。如果我想选择
训练
集的一部分(
稀疏
张量)作为验证集,我应该应用什么函数?
浏览 4
提问于2016-08-21
得票数 1
2
回答
标题: SVC-Scikit学习问题
python-2.7
、
error-handling
、
scikit-learn
、
svm
我的数据是
稀疏
的,
训练
和测试集除以90:10。有什么直接的原因和解决办法吗?
浏览 1
提问于2016-12-10
得票数 0
回答已采纳
1
回答
稀疏
张量减少
训练
时间
python
、
machine-learning
、
deep-learning
、
pytorch
我了解了PyTorch
稀疏
张量: 从docs ():“火炬支持
稀疏
张量的COO(rdinate)格式,这可以有效地存储和处理张量,其中大多数元素是零。”是否使用
稀疏
张量代替常规的PyTorch张量来减少
训练
时间?
浏览 3
提问于2018-11-24
得票数 2
回答已采纳
1
回答
如何在scikit-learn中加载包含txt文件的数据集
scikit-learn
、
dataset
、
svm
现在我的问题是,如何使用scikit-learn加载用于
训练
和测试阶段的外部数据集?
浏览 21
提问于2017-01-30
得票数 0
回答已采纳
1
回答
如何从coo_matrix中获取一行作为Python中的密集向量?
python
、
sparse-matrix
我是Python新手,您能帮我介绍一些基本的
稀疏
矩阵操作吗: 提前感谢!
浏览 3
提问于2013-04-28
得票数 1
回答已采纳
1
回答
在神经网络的背景下,“
稀疏
”是什么意思?
machine-learning
、
neural-network
我见过“
稀疏
”和“
稀疏
”的使用方式,表明它可以提高模型的准确性。例如: 在这种情况下,“
稀疏
”是什么意思?
浏览 2
提问于2016-12-26
得票数 15
回答已采纳
1
回答
用枕
稀疏
矩阵和numpy阵列
训练
` `sklearn`‘ML模型
python
、
numpy
、
scikit-learn
、
scipy
、
concatenation
为了更好地解释我的用例,A是一个
稀疏
矩阵,tf值是一个
稀疏
的矩阵,而B是一个数组,它具有数据的一些附加特性。ValueError: zero-dimensional arrays cannot be concatenated 基本上不可能
浏览 0
提问于2019-08-05
得票数 3
2
回答
在Sklearn中使用
稀疏
矩阵会使算法变慢还是变快?
python
、
machine-learning
、
scikit-learn
我有大量但
稀疏
的
训练
数据。我想在ExtraTreeClassifier中使用它。考虑到计算时间,我不确定是否需要使用
稀疏
csr_matrix或原始数据。哪个版本的数据使用该分类器运行得更快,我们是否可以将其答案推广到所有具有
稀疏
功能的模型?
浏览 0
提问于2015-05-28
得票数 2
1
回答
通过人工使输入数据更加
稀疏
,使NN (特别是自动编码器)更加健壮的技术
neural-network
、
deep-learning
、
autoencoder
我相信,几个月前,我在某个地方读到过这样的文章:当使用这种语言
训练
时,自动编码器能够更好地响应
稀疏
的输入数据。例如,当
训练
数据不
稀疏
时,但是测试数据的许多特性为零。显然,随机地将
训练
数据的某些特征设置为零可以帮助在测试集上更好地执行模型。我绝望地试图找到我再读一遍的那本书/报纸,但我没能找到,我也记不起这个名字了。有人知道这种技术叫什么吗?
浏览 0
提问于2018-04-06
得票数 0
回答已采纳
1
回答
如何实现tensorflow中的
稀疏
卷积?
tensorflow
我知道tensorflow提供了一些处理
稀疏
张量的方法。例如,当存在
稀疏
矩阵时,tf.sparse_tensor_dense_matmul比tf.matmul更快。在深卷积网络中,经过
训练
得到
稀疏
卷积核。我想知道如何保存卷积核,使tensorflow知道内核是
稀疏
的? 我看过一些报纸。本文提出了
稀疏
卷积比传统卷积更有效的计算方法。但是,tf.nn.conv2d并不表示它将比密集卷积核更快地用
稀疏
卷积核进行计算。如何从
稀疏
的内核中获得优势?
浏览 4
提问于2017-05-25
得票数 2
回答已采纳
1
回答
ALS是否需要零条目?
linear-algebra
、
apache-spark-mllib
、
recommendation-engine
交替最小二乘()的Spark MLlib实现是否要求
训练
集(用户没有与产品交互的历史记录的用户-产品组合)的所有零条目都是手动创建的,评级为0,或者算法是否会自动暗示所有缺失的组合都具有零评级?
浏览 7
提问于2017-02-14
得票数 2
回答已采纳
1
回答
在扩展的特征空间中,与线性支持向量机相比,核支持向量机有什么缺点?
machine-learning
、
svm
、
pattern-recognition
、
kernel-density
缺点是: 1)如果数据在扩展的特征空间中是线性可分的,那么线性支持向量机可以更好地最大化边缘,并可以导致更
稀疏
的解。2)当存在大数据集时,与扩展特征空间中的核
化
支持向量机相比,线性支持向量机
训练
和预测所需的时间更少。3)与线性支持向量机相比,核
化
支持向量机可以生成更复杂的
训练
支持向量机模型。
浏览 1
提问于2018-03-16
得票数 1
1
回答
使用GridSearchCV和RandomizedSearchCV时出错
python-3.x
、
scipy
、
scikit-learn
、
sparse-matrix
、
cross-validation
当我在不使用GridSearchCV或RandomizedSearchCV的情况下
训练
模型时,它工作得很好。错误的回溯很长,但是在这里,如果它有帮助的话。
浏览 3
提问于2018-01-09
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
谷歌大脑提出简化稀疏架构,预训练速度可达T5的7倍
腾讯AI Lab现场陈述论文:训练L1稀疏模型的象限性消极下降算法
UG编程:实战化训练
稀疏特征和密集特征
训练塑造可视化思维
热门
标签
更多标签
云服务器
即时通信 IM
ICP备案
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券