首页
学习
活动
专区
工具
TVP
发布

深度学习和计算机视觉

专栏作者
966
文章
1167434
阅读量
127
订阅数
最全的损失函数汇总
当训练有 C 个类别的分类问题时很有效. 可选参数 weight 必须是一个1维 Tensor, 权重将被分配给各个类别. 对于不平衡的训练集非常有效。
小白学视觉
2022-09-28
4520
BN和Dropout在训练和测试时有哪些差别?
BN,Batch Normalization,就是在深度神经网络训练过程中使得每一层神经网络的输入保持相近的分布。
小白学视觉
2022-09-28
3680
Batchnorm原理详解
前言:Batchnorm是深度网络中经常用到的加速神经网络训练,加速收敛速度及稳定性的算法,可以说是目前深度网络必不可少的一部分。 本文旨在用通俗易懂的语言,对深度学习的常用算法--batchnorm的原理及其代码实现做一个详细的解读。本文主要包括以下几个部分。
小白学视觉
2022-05-22
2390
使用PyTorch时,最常见的4个错误
这篇文章将逐点分析这些错误是如何在PyTorch代码示例中体现出来的。代码:https://github.com/missinglinkai/common-nn-mistakes
小白学视觉
2022-02-14
1.5K0
PyTorch常用代码段合集
本文是PyTorch常用代码段合集,涵盖基本配置、张量处理、模型定义与操作、数据处理、模型训练与测试等5个方面,还给出了多个值得注意的Tips,内容非常全面。
小白学视觉
2022-02-14
1K0
Batch Normalization的诅咒
Batch Normalization确实是深度学习领域的重大突破之一,也是近年来研究人员讨论的热点之一。Batch Normalization是一种被广泛采用的技术,使训练更加快速和稳定,已成为最有影响力的方法之一。然而,尽管它具有多种功能,但仍有一些地方阻碍了该方法的发展,正如我们将在本文中讨论的那样,这表明做归一化的方法仍有改进的余地。
小白学视觉
2022-02-12
3390
在机器学习项目中该如何选择优化器
本文概述了计算机视觉、自然语言处理和机器学习中常用的优化器。此外,你会找到一个基于三个问题的指导方针,以帮助你的下一个机器学习项目选择正确的优化器。
小白学视觉
2022-02-10
3510
加速 PyTorch 模型训练的 9 个技巧
让我们面对现实吧,你的模型可能还停留在石器时代。我敢打赌你仍然使用32位精度或GASP甚至只在一个GPU上训练。
小白学视觉
2022-02-09
8340
MNIST竞赛技术详解与代码分析,文末有福利~
MNIST项目基本上是深度学习初学者的入门项目,本文主要介绍使用keras框架通过构建CNN网络实现在MNIST数据集上99+的准确率。温馨提示,文末有福利哦。
小白学视觉
2019-11-30
3160
认识这19种深度学习损失函数,才能说你了解深度学习!
损失函数是深度学习中重要的概念,选择合适的损失函数是系统能够得到理想结果的保证,本文将以pytorch工具为例,介绍这19中损失函数与实现方法。
小白学视觉
2019-09-04
2.7K0
没有更多了
社区活动
腾讯技术创作狂欢月
“码”上创作 21 天,分 10000 元奖品池!
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档