首页
学习
活动
专区
工具
TVP
发布

JNing的专栏

专栏作者
694
文章
965954
阅读量
50
订阅数
【tensorflow】安装tensorflow
安装TensorFlow 有Cuda 检查可安装的tensorflow-gpu版本范围: 安装: pip install tensorflow-gpu 无Cuda 检查可安装的tensorfl
JNingWei
2020-03-17
1.1K0
【linux】安装cuda+cudnn
Table 1. CUDA Toolkit and Compatible Driver Versions:
JNingWei
2020-03-17
6.4K0
基础网络 (Basemodel) 综述
以下是我在2018年7月份找工作时,根据个人所学总结出的基础网络 (Basemodel) 综述。 其中,仅仅挑出我认为比较重要的一系列基础网络,按照时间顺序进行简要概述。
JNingWei
2019-01-28
8310
电源:模组 & 非模组(一个码农眼中的 区别 & 选择)
  给实习公司组装主机时,电源既装过模组的也装过非模组的。当时没太在意它俩的区别,就知道装非模组的时候比较轻松简单。今天CTO提起这个事,我就去查了一下这二者的详细区别,个人归纳如下表:
JNingWei
2018-09-28
1.4K0
深度学习: 深度学习框架 横向对比
[1] TensorFlow和Caffe、MXNet、Keras等其他深度学习框架的对比
JNingWei
2018-09-28
9950
深度学习: 回归分析 评价方法
  在回归(Regression)方法中,我们预测一系列连续的值,在预测完后需要评价预测结果的好坏。关于这个评价标准,目前学术界有多种标准。在深度学习中最常见的是MAE和MSE。
JNingWei
2018-09-28
1.1K0
深度学习: CNN经典网络模型
性能对比 年份表 网络 提出的年份 意义 LeNet 1998 鼻祖 AlexNet 2012 兴盛 ZF-net 2013 GoogleNet 2014 VGG 2014 ResNet 201
JNingWei
2018-09-27
1K0
深度学习: 论网络深度的利弊
[1] 深层学习为何要“Deep”(上) [2] 深层学习为何要“Deep”(下)
JNingWei
2018-09-27
6440
深度学习: greedy layer-wise pre-training (逐层贪婪预训练)
每次只训练网络中的一层,即我们首先训练一个只含一个隐藏层的网络,仅当这层网络训练结束之后才开始训练一个有两个隐藏层的网络,以此类推。
JNingWei
2018-09-27
2K0
深度学习: gradient diffusion (梯度弥散)
梯度下降法(以及相关的L-BFGS算法等)在使用随机初始化权重的深度网络上效果不好的技术原因是:梯度会变得非常小。具体而言,当使用反向传播方法计算导数的时候,随着网络的深度的增加,反向传播的梯度(从输出层到网络的最初几层)的幅度值会急剧地减小。结果就造成了整体的损失函数相对于最初几层的权重的导数非常小。这样,当使用梯度下降法的时候,最初几层的权重变化非常缓慢,以至于它们不能够从样本中进行有效的学习。这种问题通常被称为“梯度的弥散”.
JNingWei
2018-09-27
1.8K0
深度学习: convolution (卷积)
卷积层是没有“厚度”一说的。如果非要有,那么假设一个卷积层由10个滤波器(假设每个滤波器有16通道)组成,那么该卷积层的“厚度”即为10。和输入输出数据那种只需根据三维尺度就能直接定量的“厚度”是有本质区别的。
JNingWei
2018-09-27
1K0
深度学习: 参数初始化
好的开始是成功的一半。 为了让你的模型跑赢在起跑线 ε=ε=ε=(~ ̄▽ ̄)~ ,请慎重对待参数初始化。
JNingWei
2018-09-27
1.5K0
深度学习: translation invariant (平移不变性)
以下摘自池化-ufldl: 如果人们选择图像中的连续范围作为池化区域,并且只是池化相同(重复)的隐藏单元产生的特征,那么,这些池化单元就具有平移不变性 (translation invariant)。 这就意味着即使图像经历了一个小的平移之后,依然会产生相同的 (池化的) 特征。 在很多任务中 (例如物体检测、声音识别),我们都更希望得到具有平移不变性的特征,因为即使图像经过了平移,样例(图像)的标记仍然保持不变。 例如,如果你处理一个MNIST数据集的数字,把它向左侧或右侧平移,那么不论最终的
JNingWei
2018-09-27
1.8K0
深度学习: pooling (池化 / 降采样)
对于网络结构而言,上面的层看下面的层经过pooling后传上来的特征图,就好像在太空上俯瞰地球,看到的只有山脊和雪峰。这即是对特征进行宏观上的进一步抽象。
JNingWei
2018-09-27
2.4K0
深度学习: 从 Selective Search 到 RPN
具体参见我的另一篇博客:Selective Search (选择搜索),简而言之就是,Selective Search 太low太低效。
JNingWei
2018-09-27
1.5K0
深度学习: 从 RoIPooling 到 RoIAlign
对RoI进行pooling的操作最早由SPPNet中的SPP layer提出:
JNingWei
2018-09-27
2.2K0
深度学习: Faster R-CNN 网络
网络结构有两种,一种是将ZFNet(扔掉了尾端的全连接层)拿来用,另一种则是将VGG拿来用(扔掉了尾端的全连接层)。论文中给出的是第一种(绿框内为拿来用的那部分):
JNingWei
2018-09-27
2.4K0
深度学习: GoogleNet 网络
提出了 Inception_v1,开启了伟大的Inception系列,并刷新了网络的深度新记录。
JNingWei
2018-09-27
8610
深度学习: sliding window (滑动窗口)
sliding window (滑动窗口) 在深度学习中得到了极其广泛的运用。从卷积层到池化层,都能看见它的身影。
JNingWei
2018-09-27
3.8K0
深度学习: Nonlinear (非线性)
定义: 对“乘”、“加”运算 闭合。 作用: 非线性很难形式化,但却是深度学习的 核心竞争力 。 正是由于网络中强大的非线性因素,我们得以 深度地抽象出 特征。 非线性函数主要存在于 激活函数、
JNingWei
2018-09-27
1.3K0
点击加载更多
社区活动
Python精品学习库
代码在线跑,知识轻松学
热点技术征文第五期
新风口Sora来袭,普通人该如何把握机会?
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·干货材料·成员作品·最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档