腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(6157)
视频
沙龙
1
回答
在keras中应用最先进的
网络
是什么?
、
Keras提供了服务器预培训的模型,如这里所提到的: model = applications.ResNet50(...)然而,这并没有提供
浏览 3
提问于2017-09-07
得票数 0
回答已采纳
1
回答
为什么验证准确率不能以正常的方式在历次中增加?
、
、
、
、
我正在尝试在视网膜图像的数据集中使用imagenet转移学习
VGG
16模型,但我对获得像this这样的图表感到困惑,我不知道为什么验证精度没有像训练精度一样在历元期间以正常的方式增加,这是过拟合的指标吗
浏览 17
提问于2020-04-13
得票数 0
1
回答
Resnet 50和yolo或rcnn有什么区别?
、
、
、
比如resnet或
vgg
是来自yolo或rcnn家族的。它们是这些检测模型的子组件吗?另外,SSD是像yolo或rcnn那样的另一个家庭吗?
浏览 1
提问于2021-05-18
得票数 0
回答已采纳
2
回答
残
差
神经
网络
:串联还是元素相加?
、
、
对于
残
差
神经
网络
中的
残
差
块,块末尾的加法是真正的元素相加还是级联? 例如,addition([1, 2], [3, 4])会生成[1, 2, 3, 4]还是[4, 6]?
浏览 5
提问于2017-10-24
得票数 6
3
回答
如果使用RELU激活函数解决消失梯度问题,为什么ResNet的主要目的是什么?
、
、
、
、
我读到ResNet通过使用跳过函数解决了梯度消失问题。但是它们不是已经使用RELU解决了吗?有没有什么我遗漏的关于ResNet的其他重要的东西,或者即使在使用RELU之后也会发生消失梯度问题?
浏览 0
提问于2020-05-30
得票数 2
1
回答
为提高精度而进行的误差分析
、
我有时间序列的历史错误。我想通过分析误差序列来改进预测序列。有什么方法可以做到吗?
浏览 0
提问于2014-11-25
得票数 5
1
回答
理解dinic的算法有问题吗?
、
、
我对dinic的算法在如何使用
残
差
网络
方面有一点误解 因此,据我所知,算法如下 1-在
残
差
网络
上运行bfs,并根据与源的距离为节点分配级别 2-如果从未到达汇聚节点,则终止算法 3-以严格递增的级别运行dfs迭代,以找到扩充路径,直到到达阻塞流,并对扩充路径的所有瓶颈值求和,以获得最大流量,并根据每条路径的瓶颈更新剩余
网络
4-重复1 2 3 现在我的问题是,这个算法在dfs迭代期间是否使用过
残
差
网络
的后向边(从v到
浏览 14
提问于2020-01-19
得票数 0
回答已采纳
1
回答
LSTM在后支柱与通常“误差”之间的“
残
差
”
当我们谈论LSTM时,
残
差
意味着什么?📷其中$s_0$是神经
网络
的初始状态。 问题:
残
差
与通常的错误有何不同?
浏览 0
提问于2018-07-04
得票数 1
回答已采纳
1
回答
理解nnet函数的输出
、
、
、
我是神经
网络
的新手,所以,对于我天真的问题,很抱歉。我想了解一下nnet函数的输出。我正在使用这个函数来执行多类分类。这个函数是如何计算
残
差
的?
浏览 2
提问于2017-12-18
得票数 0
2
回答
为什么我们需要快速连接来建立剩余
网络
?
、
、
、
、
为什么我们需要快捷连接来建立
残
差
网络
,以及它如何帮助训练神经
网络
进行分类和检测?
浏览 0
提问于2017-08-09
得票数 2
回答已采纳
1
回答
Python statsmodel中的GLM
残
差
、
、
、
如何在Python中为所有303个观测值生成
残
差
:OLSInfluence(resid)res.resid()res$resid
浏览 45
提问于2021-03-05
得票数 0
回答已采纳
3
回答
只使用完全连接层(而不是卷积层)构建
残
差
网络
有意义吗?
、
、
、
、
残
差
网络
总是用卷积层构建的。我从未见过仅具有完全连接层的剩余
网络
。构建仅具有完全连接层的剩余
网络
是否可行?
浏览 8
提问于2020-05-26
得票数 6
1
回答
对ford算法的bfs进行改进,以寻找增广路径
、
、
、
、
我正在使用bfs来寻找增强的path.but它产生相同的路径每个time.but福特富尔克森算法要求,我们每次从源到宿选择不同的路径,所以有人能建议我如何修改bfs,使它在源和sink.graph之间每次被定向和加权时产生不同的路径
浏览 2
提问于2012-07-05
得票数 2
回答已采纳
3
回答
为什么CNNs通常有茎?
、
、
、
大多数尖端/著名的CNN架构都有一个不像
网络
其他部分那样使用块的主干,相反,大多数体系结构使用普通的Conv2d或者在树干中使用池,而没有特殊的模块/层,比如快捷方式(
残
差
)、倒置
残
差
、鬼锥等等。茎的例子:技巧袋ResNet: 3*Conv2d+MaxPool 尽管2 Conv2d可以形成与图2所示的典型
残
差
块完全相同的结构,但茎中没有快捷方式
浏览 0
提问于2021-07-05
得票数 1
回答已采纳
1
回答
sonicFoam forwardStep真实边界条件导致错误::printStack(泡沫::Ostream&)
value uniform 300;但这会导致一个strang错误: 求和数平均值: 0.24881 max: 0.25对角线:求解rho,初始
残
差
= 0,最终
残
差
= 0,不迭代0 smoothSolver:迭代1 smoothSolver:解Ux,初始
残
差
= 1,最终
残
差
=9.33263 e-16,不迭代1 smoothSolver:求解Uy,初始
残
差
= 1,
浏览 0
提问于2018-08-27
得票数 1
2
回答
重要的CNN架构
、
、
你应该知道哪些重要的CNN架构?在ImageNet ILSVRC挑战中,CNN的架构做得很好吗?哪些CNN架构是转移学习的好候选者?
浏览 0
提问于2017-08-26
得票数 0
0
回答
如何在tensorflow中实现自定义损失函数和梯度反向传播
首先,在我的
网络
设计中,每个单元有五个锚点和一个类(面),因此
网络
最终输出具有n*c*h*w形状的4D张量。,我定义了以下函数来计算总损失:这个函数接受三个参数: pred表示上面已经描述的
网络
输出张量特别是total_loss变量只是一个标量,tensorflow框架如何知道输出张量中每个元素的
残
差
/梯度,并进一步执行反向传播?我知道自动差动的机理,但自动差动的前提是每个输出元
浏览 8
提问于2018-07-18
得票数 0
回答已采纳
1
回答
深层神经
网络
中层对性能改善的怀疑
、
今天我和一位朋友讨论了神经
网络
,他说我们增加的层次越多,每个层次的准确性就越低。这是事实吗? 我知道,当建立一个神经
网络
的时候,越深越好,但是如果我们有很多层,它们对性能的贡献会更小吗?提前谢谢。
浏览 0
提问于2019-12-15
得票数 1
回答已采纳
1
回答
解释lm()摘要中的剩余价值表
、
我正与R合作,在我收集的数据上创建一些线性模型(使用lm())。现在我并不擅长统计,我发现很难理解通过R生成的线性模型的总结。我的问题是:这些值意味着什么?如果我的模型是好的,我如何从这些值中知道?Min: -4725611 1Q:-2161468 median:-1352080 3Q:3007561 Max:6035077
浏览 3
提问于2012-08-28
得票数 0
1
回答
具有比例t分布的GAMM :为什么我的
残
差
和拟合值不能与观测值相加?
、
、
、
############################################################### 我用fitted(model)提取拟合值,用resid(model)提取
残
差
当我将它们添加到我的数据框架中时,我注意到
残
差
和拟合值并不等于观察到的值。起初,我认为函数fitted()和resid()可能没有保留值的原始顺序。然而,这是错误的。
浏览 1
提问于2021-01-16
得票数 0
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
卷积神经网络(二)——LetNet-5、AlexNet、VGG-16、残差网络
深度残差网络上
残差网络原理详解
深度残差网络下
深度学习入门讲解:什么是残差网络Resnet(上)
热门
标签
更多标签
云服务器
ICP备案
对象存储
实时音视频
即时通信 IM
活动推荐
运营活动
广告
关闭
领券