阅读笔记

8 篇文章
7 人订阅

全部文章

用户3636924

Softmax,Softmax loss&Cross entropy

这张图的等号左边部分就是全连接层做的事,W是全连接层的参数,我们也称为权值,X是全连接层的输入,也就是特征。从图上可以看出特征X是N*1的向量,这是怎么得到的呢...

863
用户3636924

SVM

SVM(Support Vector Machine)要解决的问题可以用一个经典的二分类问题加以描述。

1153
用户3636924

基追踪降噪(Basis Pursuit De-Noising, BPDN)

等号两边都有x,需要进一步分情况讨论,推导过程见https://www.cnblogs.com/wlzy/p/7966525.html

801
用户3636924

RNN & LSTM

所有的RNN均具有一种重复神经网络模块的链式形式,在标准的RNN中,通常重复模块是一个非常简单的结构,eg:只含有一个tanh层。

1441
用户3636924

梯度下降法(BGD & SGD & Mini-batch SGD)

优化思想:用当前位置的负梯度方向作为搜索方向,亦即为当前位置下降最快的方向,也称“最速下降法”。越接近目标值时,步长越小,下降越慢。

2701
用户3636924

近几年Facial Expression Recognition相关文章

(1)Facial Expression Recognition by De-expression Residue Learning

2531
用户3636924

CVRP 2017|DLP-CNN & center loss & Island loss

面部表情识别很大程度上依赖于定义好的数据集,然而这样的数据集往往存在着很多的限制。现有的面部表情数据集往往在严格控制的实验条件下,受试者和测试环境均不具有多样性...

2501
用户3636924

CVPR 2018|Best paper: Taskonomy 学习笔记

Taskonomy通过量化不同视觉任务之间的关联、并利用这些关联最优化学习策略。(如果两视觉任务A,B之间具有关联性,那么我们在A中学习到的表达理应可以为解决任...

1491

扫码关注云+社区