首页
学习
活动
专区
工具
TVP
发布

本立2道生

君子务本,本立而道生。关注计算机视觉、机器学习、深度学习、算法、编程等。
专栏作者
72
文章
125320
阅读量
17
订阅数
人脸识别损失函数疏理与分析
两张人脸图像,分别提取特征,通过计算特征向量间的距离(相似度)来判断它们是否来自同一个人。选择与问题背景相契合的度量方式很重要,人脸识别中一般有两种,欧氏距离和余弦距离(角度距离)。
李拜六不开鑫
2020-08-05
2.2K1
Arctan的快速近似算法
\(arctan\)的近似计算本质上是在所需精度范围内对\(arctan\)曲线进行拟合,比较直接的想法是泰勒展开,
李拜六不开鑫
2020-07-21
1.7K0
德布鲁因序列与indexing 1
在数值计算中,为了控制精度以及避免越界,需要严格控制数值的范围,有时需要知道二进制表示中"left-most 1"或"right-most 1”的位置,这篇文章就来介绍一下通过德布鲁因序列(De Bruijn sequence)来快速定位的方法。
李拜六不开鑫
2020-07-15
7140
损失函数是学习的指挥棒—记一次实践经历
因为一些后处理操作的要求,希望投影得到的分布尽可能对称且均匀,能否找到更好的投影方向?
李拜六不开鑫
2020-07-10
7270
二叉树的遍历回顾
本文重点在于复习并总结 二叉树每种遍历方式的递归与迭代实现,图片和示例代码均来自《邓俊辉-数据结构》。
李拜六不开鑫
2020-07-09
5470
从卷积拆分和分组的角度看CNN模型的演化
如题,这篇文章将尝试从卷积拆分的角度看一看各种经典CNN backbone网络module是如何演进的,为了视角的统一,仅分析单条路径上的卷积形式。
李拜六不开鑫
2020-05-18
7610
Inception系列理解
Inception 家族成员:Inception-V1(GoogLeNet)、BN-Inception、Inception-V2、Inception-V3、Inception-ResNet-V1、Inception-V4、Inception-ResNet-V2。
李拜六不开鑫
2020-04-08
1.1K0
通俗易懂DenseNet
在博客《ResNet详解与分析》中,我们谈到ResNet不同层之间的信息流通隐含在“和”中,所以从信息流通的角度看并不彻底,相比ResNet,DenseNet最大的不同之处在于,并不对feature map求element-wise addition,而是通过concatenation将feature map拼接在一起,所以DenseNet中的卷积层知道前面每一步卷积发生了什么。
李拜六不开鑫
2020-03-04
7470
ResNet详解与分析
我们知道,对浅层网络逐渐叠加layers,模型在训练集和测试集上的性能会变好,因为模型复杂度更高了,表达能力更强了,可以对潜在的映射关系拟合得更好。而“退化”指的是,给网络叠加更多的层后,性能却快速下降的情况。
李拜六不开鑫
2020-02-26
2.2K0
理解numpy中ndarray的内存布局和设计哲学
ndarray是numpy中的多维数组,数组中的元素具有相同的类型,且可以被索引。
李拜六不开鑫
2020-02-17
1.4K0
python中如何查看指定内存地址的内容
python中一般并不需要查看内存内容,但作为从C/C++过来的人,有的时候还是想看看内存,有时是为了验证内容是否与预期一致,有时是为了探究下内存布局。
李拜六不开鑫
2020-02-17
2.8K0
计算机视觉中的滤波
这两种分类方式并不是割裂的,而是互相交叉的,用于图像处理的滤波器也有线性、非线性、自适应之分。
李拜六不开鑫
2020-02-16
1.1K0
数字图像处理,计算机视觉,计算机图形学,计算摄影
计算机视觉(Computer Vision, CV),输入为图像或图像序列,输出为某种信息或描述,目的在于理解图像,获得语义信息。比如目标识别任务,输入一张图片,输出图中有哪些物体、都在什么位置,典型任务包括检测、识别、分割、定位、追踪、动作识别、OCR等,详见wiki-Computer vision。
李拜六不开鑫
2020-02-14
1.2K0
彻底搞懂感受野的含义与计算
感受野(Receptive Field),指的是神经网络中神经元“看到的”输入区域,在卷积神经网络中,feature map上某个元素的计算受输入图像上某个区域的影响,这个区域即该元素的感受野。
李拜六不开鑫
2019-12-20
3.4K0
远程桌面MATLAB启动失败问题解决
远程桌面打开MATLAB会报错,解决办法,打开matlab的licenses路径,如matlab/R2017b/licenses/,路径下存有license文件,如license_standalone.lic(可能为其他名字),打开文件,在每行如下位置添加TS_OK。
李拜六不开鑫
2019-12-17
1.4K0
直观理解为什么分类问题用交叉熵损失而不用均方误差损失?
对比交叉熵损失与均方误差损失,只看单个样本的损失即可,下面从两个角度进行分析。
李拜六不开鑫
2019-12-16
3.2K0
Batch Normalization详解
在博文《为什么要做特征归一化/标准化?》中,我们介绍了对输入进行Standardization后,梯度下降算法更容易选择到合适的(较大的)学习率,下降过程会更加稳定。
李拜六不开鑫
2019-12-10
1.8K0
常用数据结构操作与算法复杂度总结
一个算法的实际运行时间很难评估,当时的输入、CPU主频、内存、数据传输速度、是否有其他程序在抢占资源等等,这些因素都会影响算法的实际运行时间。为了公平地对比不同算法的效率,需要脱离开这些物理条件,抽象出一个数学描述。在所有这些因素中,问题的规模往往是决定算法时间的最主要因素。因此,定义算法的时间复杂度(T(n)),用来描述算法的执行时间随着输入规模的增长将如何变化,增长速度是怎样的。
李拜六不开鑫
2019-11-24
1.1K0
网络权重初始化方法总结(下):Lecun、Xavier与He Kaiming
书接上回,全0、常数、过大、过小的权重初始化都是不好的,那我们需要什么样的初始化?
李拜六不开鑫
2019-11-22
2.2K0
网络权重初始化方法总结(上):梯度消失、梯度爆炸与不良的初始化
一个简单的前向传播和反向传播的示意图如下,线性组合和非线性激活交替进行,线性组合层可以为全连接层或卷积层等,图片来自链接,
李拜六不开鑫
2019-11-08
1.8K0
点击加载更多
社区活动
腾讯技术创作狂欢月
“码”上创作 21 天,分 10000 元奖品池!
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档