首页
学习
活动
专区
工具
TVP
发布

恩蓝脚本

脚本大全
专栏作者
12631
文章
25276713
阅读量
85
订阅数
深入理解Tensorflow中的masking和padding
TensorFlow是一个采用数据流图(data flow graphs),用于数值计算的开源软件库。节点(Nodes)在图中表示数学操作,图中的线(edges)则表示在节点间相互联系的多维数据数组,即张量(tensor)。它灵活的架构让你可以在多种平台上展开计算,例如台式计算机中的一个或多个CPU(或GPU),服务器,移动设备等等。TensorFlow 最初由Google大脑小组(隶属于Google机器智能研究机构)的研究员和工程师们开发出来,用于机器学习和深度神经网络方面的研究,但这个系统的通用性使其也可广泛用于其他计算领域。
砸漏
2020-11-05
2.6K0
理解Android硬件加速原理(小白文)
硬件加速,直观上说就是依赖 GPU 实现图形绘制加速,同软硬件加速的区别主要是图形的绘制究竟是 GPU 来处理还是 CPU,如果是GPU,就认为是硬件加速绘制,反之,软件绘制。在 Android 中也是如此,不过相对于普通的软件绘制,硬件加速还做了其他方面优化,不仅仅限定在绘制方面,绘制之前,在如何构建绘制区域上,硬件加速也做出了很大优化,因此硬件加速特性可以从下面两部分来分析:
砸漏
2020-11-05
2.1K0
Tensorflow tf.nn.atrous_conv2d如何实现空洞卷积的
1.Long J, Shelhamer E, Darrell T, et al. Fully convolutional networks for semantic segmentation[C]. Computer Vision and Pattern Recognition, 2015.
砸漏
2020-11-05
7230
Tensorflow tf.nn.depthwise_conv2d如何实现深度卷积的
Xception: Deep Learning with Depthwise Separable Convolutions
砸漏
2020-11-04
8510
使用tensorflow框架在Colab上跑通猫狗识别代码
有Google账号(具体怎么注册账号这里不详述,大家都懂的,自行百度)在你的Google邮箱中关联好colab(怎样在Google邮箱中使用colab在此不详述,自行百度)
砸漏
2020-11-02
1.1K0
Tensorflow tf.tile()的用法实例分析
如果现有一个形状如[width, height]的张量,需要得到一个基于原张量的,形状如[batch_size,width,height]的张量,其中每一个batch的内容都和原张量一模一样。tf.tile使用方法如:
砸漏
2020-11-02
1.3K0
keras自定义回调函数查看训练的loss和accuracy方式
keras是一个十分便捷的开发框架,为了更好的追踪网络训练过程中的损失函数loss和准确率accuracy,我们有几种处理方式,第一种是直接通过 history=model.fit(),来返回一个history对象,通过这个对象可以访问到训练过程训练集的loss和accuracy以及验证集的loss和accuracy。
砸漏
2020-11-02
2.1K0
使用tensorflow实现VGG网络,训练mnist数据集方式
VGG作为流行的几个模型之一,训练图形数据效果不错,在mnist数据集是常用的入门集数据,VGG层数非常多,如果严格按照规范来实现,并用来训练mnist数据集,会出现各种问题,如,经过16层卷积后,28*28*1的图片几乎无法进行。
砸漏
2020-11-02
1.2K0
keras 自定义loss损失函数,sample在loss上的加权和metric详解
1. loss是整体网络进行优化的目标, 是需要参与到优化运算,更新权值W的过程的
砸漏
2020-11-02
3.9K0
Pytorch使用PIL和Numpy将单张图片转为Pytorch张量方式
1、mxnet 的batch ,设置的是单卡的,多卡是 batch*多卡,多一张卡,速度可以提升一倍
砸漏
2020-11-02
1.7K0
opencv-python的RGB与BGR互转方式
caffe底层的图像处理是基于opencv,其使用的颜色通道顺序与也是BGR(Blue-Green-Red),而日常图片存储时颜色通道顺序是RGB。
砸漏
2020-11-02
6.6K0
tensorflow dataset.shuffle、dataset.batch、dataset.repeat顺序区别详解
解释:相当于把所有数据先打乱,然后打包成batch输出,整体数据重复2个epoch
砸漏
2020-11-02
1.6K0
浅谈tensorflow中dataset.shuffle和dataset.batch dataset.repeat注意点
batch很好理解,就是batch size。注意在一个epoch中最后一个batch大小可能小于等于batch size
砸漏
2020-10-29
1.8K0
Keras框架中的epoch、bacth、batch size、iteration使用介绍
Keras官方文档中给出的解释是:“简单说,epochs指的就是训练过程接中数据将被“轮”多少次”
砸漏
2020-10-29
1.8K0
keras 使用Lambda 快速新建层 添加多个参数操作
补充知识:keras 实现包括batch size所在维度的reshape,使用backend新建一层 针对多输入使用不同batch size折衷解决办法
砸漏
2020-10-29
9330
解决keras加入lambda层时shape的问题
使用keras时,加入keras的lambda层以实现自己定义的操作。但是,发现操作结果的shape信息有问题。
砸漏
2020-10-29
5490
Keras中的两种模型:Sequential和Model用法
在Keras中有两种深度学习的模型:序列模型(Sequential)和通用模型(Model)。差异在于不同的拓扑结构。
砸漏
2020-10-29
2.1K0
Keras SGD 随机梯度下降优化器参数设置方式
Keras 中包含了各式优化器供我们使用,但通常我会倾向于使用 SGD 验证模型能否快速收敛,然后调整不同的学习速率看看模型最后的性能,然后再尝试使用其他优化器。
砸漏
2020-10-21
3.6K0
Keras – GPU ID 和显存占用设定步骤
初步尝试 Keras (基于 Tensorflow 后端)深度框架时, 发现其对于 GPU 的使用比较神奇, 默认竟然是全部占满显存, 1080Ti 跑个小分类问题, 就一下子满了. 而且是服务器上的两张 1080Ti.
砸漏
2020-10-21
1.4K0
踩坑:pytorch中eval模式下结果远差于train模式介绍
首先,eval模式和train模式得到不同的结果是正常的。我的模型中,eval模式和train模式不同之处在于Batch Normalization和Dropout。Dropout比较简单,在train时会丢弃一部分连接,在eval时则不会。Batch Normalization,在train时不仅使用了当前batch的均值和方差,也使用了历史batch统计上的均值和方差,并做一个加权平均(momentum参数)。在test时,由于此时batchsize不一定一致,因此不再使用当前batch的均值和方差,仅使用历史训练时的统计值。
砸漏
2020-10-21
5.3K2
点击加载更多
社区活动
腾讯技术创作狂欢月
“码”上创作 21 天,分 10000 元奖品池!
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档