首页
学习
活动
专区
工具
TVP
发布

计算机视觉理论及其实现

专栏作者
1715
文章
3810034
阅读量
72
订阅数
numpy.prod
numpy.prod(a, axis=None, dtype=None, out=None, keepdims=<no value>, initial=<no value>, where=<no value>)[source]
狼啸风云
2022-08-18
2170
神经网络优化(损失函数:自定义损失函数、交叉熵、softmax())
3、神经网络的层数,通常用神经网络的层数和神经网络待优化的参数的个数 来表示,层数 = 隐藏层的层数 + 1个输出层,总参数 = 总W + 总b
狼啸风云
2020-09-07
1.7K0
MSELoss损失函数
很多的 loss 函数都有 size_average 和 reduce 两个布尔类型的参数。因为一般损失函数都是直接计算 batch 的数据,因此返回的 loss 结果都是维度为 (batch_size, ) 的向量。
狼啸风云
2020-07-13
4.5K0
Pytorch 分布式模式介绍
数据较多或者模型较大时,为提高机器学习模型训练效率,一般采用多GPU的分布式训练。
狼啸风云
2020-02-13
4.1K1
keras.callbacks
Callbacks: utilities called at certain points during model training.
狼啸风云
2020-01-14
4550
torch.nn、(二)
版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
狼啸风云
2019-09-25
1.3K0
没有更多了
社区活动
腾讯技术创作狂欢月
“码”上创作 21 天,分 10000 元奖品池!
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档