李拜六不开鑫

LV0
发表了文章

人脸识别损失函数疏理与分析

两张人脸图像,分别提取特征,通过计算特征向量间的距离(相似度)来判断它们是否来自同一个人。选择与问题背景相契合的度量方式很重要,人脸识别中一般有两种,欧氏距离和...

李拜六不开鑫
发表了文章

Arctan的快速近似算法

\(arctan\)的近似计算本质上是在所需精度范围内对\(arctan\)曲线进行拟合,比较直接的想法是泰勒展开,

李拜六不开鑫
发表了文章

德布鲁因序列与indexing 1

在数值计算中,为了控制精度以及避免越界,需要严格控制数值的范围,有时需要知道二进制表示中"left-most 1"或"right-most 1”的位置,这篇文章...

李拜六不开鑫
发表了文章

损失函数是学习的指挥棒—记一次实践经历

因为一些后处理操作的要求,希望投影得到的分布尽可能对称且均匀,能否找到更好的投影方向?

李拜六不开鑫
发表了文章

二叉树的遍历回顾

本文重点在于复习并总结 二叉树每种遍历方式的递归与迭代实现,图片和示例代码均来自《邓俊辉-数据结构》。

李拜六不开鑫
发表了文章

从卷积拆分和分组的角度看CNN模型的演化

如题,这篇文章将尝试从卷积拆分的角度看一看各种经典CNN backbone网络module是如何演进的,为了视角的统一,仅分析单条路径上的卷积形式。

李拜六不开鑫
发表了文章

Inception系列理解

Inception 家族成员:Inception-V1(GoogLeNet)、BN-Inception、Inception-V2、Inception-V3、In...

李拜六不开鑫
发表了文章

通俗易懂DenseNet

在博客《ResNet详解与分析》中,我们谈到ResNet不同层之间的信息流通隐含在“和”中,所以从信息流通的角度看并不彻底,相比ResNet,DenseNet最...

李拜六不开鑫
发表了文章

ResNet详解与分析

我们知道,对浅层网络逐渐叠加layers,模型在训练集和测试集上的性能会变好,因为模型复杂度更高了,表达能力更强了,可以对潜在的映射关系拟合得更好。而“退化”指...

李拜六不开鑫
编程算法
发表了文章

理解numpy中ndarray的内存布局和设计哲学

ndarray是numpy中的多维数组,数组中的元素具有相同的类型,且可以被索引。

李拜六不开鑫
Numpy编程算法
发表了文章

python中如何查看指定内存地址的内容

python中一般并不需要查看内存内容,但作为从C/C++过来的人,有的时候还是想看看内存,有时是为了验证内容是否与预期一致,有时是为了探究下内存布局。

李拜六不开鑫
httpsHTML编程算法Python网络安全
发表了文章

计算机视觉中的滤波

这两种分类方式并不是割裂的,而是互相交叉的,用于图像处理的滤波器也有线性、非线性、自适应之分。

李拜六不开鑫
发表了文章

数字图像处理,计算机视觉,计算机图形学,计算摄影

计算机视觉(Computer Vision, CV),输入为图像或图像序列,输出为某种信息或描述,目的在于理解图像,获得语义信息。比如目标识别任务,输入一张图片...

李拜六不开鑫
图像处理Processing
发表了文章

彻底搞懂感受野的含义与计算

感受野(Receptive Field),指的是神经网络中神经元“看到的”输入区域,在卷积神经网络中,feature map上某个元素的计算受输入图像上某个区域...

李拜六不开鑫
kernel
发表了文章

远程桌面MATLAB启动失败问题解决

远程桌面打开MATLAB会报错,解决办法,打开matlab的licenses路径,如matlab/R2017b/licenses/,路径下存有license文件...

李拜六不开鑫
MATLAB
发表了文章

直观理解为什么分类问题用交叉熵损失而不用均方误差损失?

对比交叉熵损失与均方误差损失,只看单个样本的损失即可,下面从两个角度进行分析。

李拜六不开鑫
发表了文章

Batch Normalization详解

在博文《为什么要做特征归一化/标准化?》中,我们介绍了对输入进行Standardization后,梯度下降算法更容易选择到合适的(较大的)学习率,下降过程会更加...

李拜六不开鑫
批量计算神经网络
发表了文章

常用数据结构操作与算法复杂度总结

一个算法的实际运行时间很难评估,当时的输入、CPU主频、内存、数据传输速度、是否有其他程序在抢占资源等等,这些因素都会影响算法的实际运行时间。为了公平地对比不同...

李拜六不开鑫
编程算法数据结构C++
发表了文章

网络权重初始化方法总结(下):Lecun、Xavier与He Kaiming

书接上回,全0、常数、过大、过小的权重初始化都是不好的,那我们需要什么样的初始化?

李拜六不开鑫
神经网络
发表了文章

网络权重初始化方法总结(上):梯度消失、梯度爆炸与不良的初始化

一个简单的前向传播和反向传播的示意图如下,线性组合和非线性激活交替进行,线性组合层可以为全连接层或卷积层等,图片来自链接,

李拜六不开鑫
神经网络

个人简介

个人成就

扫码关注云+社区

领取腾讯云代金券