腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(280)
视频
沙龙
1
回答
变长数据分类的
神经网络
、
、
、
如何创建一个网络来预测可变长度数据的标签:label1: abcdeaefaferelabel1: dffdpodfdajfdjdddfddfd label2: rexcxfrerperuetupterer...测试数据:xcdjeioreweoforpeeedfdfd... 请注意,这些序列属于不同的类,这是一个分类问题。我没有试图预测这些序列的
浏览 0
提问于2018-09-25
得票数 1
2
回答
时代的多少会影响过
拟合
吗?
、
、
、
、
我正在使用
卷积
神经网络
,CNN。在一个特定的时代,我只保存最好的CNN模型的权重,基于改进的验证精度比以前的时代。 增加划时代的次数是否也会增加CNNs和深度学习的过度
拟合
?
浏览 0
提问于2018-02-07
得票数 20
回答已采纳
1
回答
如何在使用MxNet训练
神经网络
时设置一些丢失?
、
当使用MxNet训练深度
卷积
神经网络
时,打开一定的丢失量以减少过
拟合
的最简单方法是什么?有没有一种方法可以在网络架构中不手动实现丢包率的情况下添加丢包率?
浏览 2
提问于2017-12-04
得票数 0
2
回答
我的
卷积
神经网络
过
拟合
、
、
、
、
最近,我构建了一个简单的
卷积
神经网络
,用于手势图像识别,使用背景减法使手在屏幕上显示为黑色背景的白色形状。它在很大程度上是使用keras Conv2D构建的。此外,我在不同的地方添加了多个Dropout层来查看效果,并且总是发生相同的事情,其中损失急剧减少,并且显示出过
拟合
的迹象。
浏览 0
提问于2020-01-31
得票数 0
1
回答
具有R的Keras的Monte (MC)辍学
、
、
、
、
如何在
卷积
神经网络
中用Keras实现蒙特卡罗丢包,以估计YARIN GAL提出的预测不确定度?我用的是R.我将模型按小批进行
拟合
,并希望用Monte dropout.Could在Keras documentation.BTW中找不到任何提示来评估小批模型,我用标志training=TRUE训练了我的模型。
浏览 0
提问于2018-04-25
得票数 4
回答已采纳
3
回答
卷积
神经网络
过
拟合
、
、
、
、
我建立了一个CNN来学习分类脑电图数据(只有大约4000个训练例子,2个班,50-50级平衡)。每个培训示例为64x512,每个通道有5个。ConvLayer (4个滤波器)辍学率50%辍学率50%Im也使用重量衰减(L2 reg,lambda = 0.001)为什么这么小的网络太合适了?我认为这是一个样本大小问题,但我读过许多关于EEG和B
浏览 0
提问于2016-12-05
得票数 7
1
回答
卷积
神经网络
?
、
、
、
我从互联网上了解到,
卷积
神经网络
是最好的方法。imshow('Processed Video', temp)上面是我写的代码--值(850000,1100000)是矩阵的一个
卷积
范围的和的值
浏览 4
提问于2015-07-22
得票数 1
2
回答
在高级优化算法中会出现过度
拟合
吗?
、
、
、
、
在考瑟拉上参加安德鲁·吴( Andrew )的在线机器学习课程时,我遇到了一个名为过度
拟合
的话题。
浏览 0
提问于2016-09-13
得票数 8
回答已采纳
2
回答
卷积
神经网络
训练开始时的高训练误差
、
、
、
、
在
卷积
神经网络
中,我正在训练CNN,在训练过程中,特别是在训练开始时,我得到了非常高的训练误差。在那之后,这个误差开始慢慢下降。在大约500个时期之后,训练误差接近于零(例如0.006604)。
浏览 5
提问于2016-03-16
得票数 1
2
回答
CNN中多层膜的激活功能
、
但是为什么在
卷积
层上也要应用激活函数呢?据我所知,激活函数只需要在最后一层上应用一次。
浏览 0
提问于2019-02-18
得票数 2
3
回答
减少
神经网络
中的过
拟合
、
、
、
我已经写了一个小的
神经网络
,用于对汽车和非汽车图像进行分类。我需要帮助来避免过度
拟合
。
浏览 0
提问于2017-06-23
得票数 2
1
回答
有线电视新闻网
卷积
层过
拟合
的预防
、
我用TensorFlow训练手语应用的
卷积
神经网络
(CNN)。CNN必须对27种不同的标签进行分类,因此毫不奇怪,一个主要的问题是处理过度贴合。我怀疑过度
拟合
的来源在于
卷积
层,因为我没有采取任何明确的步骤来规范(除了保持层尽可能小)。但是根据TensorFlow提供的例子,似乎正则化或退出并不是典型的应用于
卷积
层。我在网上发现的唯一一种明确处理在
卷积
层中防止过度
拟合
的方法是一种相当新的方法,称为。不幸的是,在TensorFlow中似乎没有这方面的实现,至少目前还没有。因
浏览 1
提问于2016-03-21
得票数 16
1
回答
图像分类中的放大系数
、
、
如果CNN对聚焦于某一物体的图像进行训练,它是否也能识别出图像中存在多个这样的物体?如果情况逆转,答案是否相同?也就是说,CNN对一束花图像的训练也能识别出单一的花图像吗?
浏览 0
提问于2018-09-25
得票数 1
1
回答
三维CNN中的Input_shape
、
、
、
我正在尝试使用Keras建立一个三维
卷积
神经网络
( input_shape );但是,我输入的这个3D
卷积
神经网络
似乎有一个问题。不过,当我用整数替换None并试图将模型
拟合
到我的数据集时,我得到的错误是: ValueError: sequential_13层的输入0与层::预期的min_ndim=5,found ndim=4不兼容
浏览 1
提问于2021-06-11
得票数 0
回答已采纳
1
回答
“底层映射”这个短语是什么意思?
在KaimingHe的一篇题为图像识别的深度残差学习的论文中,有一个短语“底层”。这是什么意思?
浏览 0
提问于2021-04-06
得票数 0
1
回答
为什么1x1
卷积
层在
神经网络
回归中进行特征约简?
、
、
、
、
当我第一次尝试创建一个
神经网络
时,如果我提供了所有的2万种功能,它就会遭受严重的过度
拟合
--手动将它减少到1,000个功能,极大地提高了性能。我读过大约1x1
卷积
神经网络
用于特征约简,但它都用于图像和2D输入。与正常的稠密
神经网络
相反,这就像我手动选择了性能最好的特征一样。我的问题是-为什么要这样做?用稠密层代替
卷积
层完全降低了性能。这是否与特性缩减有关,还是完全是因为其他原因?我认为2d图像使用1x1
卷积
来减少图像的通道维数--但是我只有一个通道和1x1
卷积<
浏览 1
提问于2020-04-23
得票数 2
回答已采纳
1
回答
Keras -提高内存性能
、
、
、
、
我在输入集上运行
卷积
神经网络
,输入集是5GB,训练输出的大小相同,因此总共有10 so的数据。我对内存的50GB有所保留,但仍然遇到内存问题。我使用adam优化器,我的模型
拟合
如下: cnn_model.fit(x_train,y_train, validation_data=(x_test,y_test), callbacks=[earlystopper
浏览 12
提问于2018-08-16
得票数 0
2
回答
补丁/内核的大小如何影响convnet的结果?
、
、
、
我在家里玩
卷积
神经网络
和tensorflow (顺便说一下,我已经完成了udacity深造课程,所以我有理论基础)。,当运行
卷积
时,补丁的大小有什么影响?当图像变大/变小时,这样的大小必须改变吗?我做的一个练习涉及到CIFAR-10图像数据库(32x32PX),然后我使用了3x3的
卷积
(填充1),得到了不错的结果。增加/减少路径大小的影响(就性能/过度
拟合
而言)是什么?
浏览 0
提问于2017-08-07
得票数 3
回答已采纳
1
回答
卷积
神经网络
中的过
拟合
、
、
我申请CNN对手势进行分类,我有10个手势和100个手势图像。我所建立的模型对训练数据的准确率约为97%,而我在测试数据中的准确率为89%。我是否可以说,我的模型是过度安装,或它是否可以接受有这样的准确性图表(如下所示)?
浏览 0
提问于2018-02-06
得票数 1
回答已采纳
3
回答
卷积
神经网络
是否存在消失梯度?
、
、
、
我想我在某个地方读到,随着层数的增加,
卷积
神经网络
不会像标准的乙状结肠
神经网络
那样遭受消失梯度问题的困扰。但我一直找不到“为什么”。 它是否真的没有问题,还是我错了,它取决于激活功能?我一直在使用校正线性单元,所以我从未测试过
卷积
神经网络
中的Sigmoid单元
浏览 10
提问于2015-03-09
得票数 8
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
不可不知的卷积神经网络调参技巧-李沐大神的私房调参笔记
这个深度学习的课程笔记,吴恩达看了都说好
您有一份让吴恩达称赞的深度学习的课程笔记,请注意查收!
中国香港科技大学TensorFlow三天速成课件笔记
这个深度学习课程笔记,吴恩达也转了
热门
标签
更多标签
云服务器
ICP备案
实时音视频
即时通信 IM
对象存储
活动推荐
运营活动
广告
关闭
领券