首页
学习
活动
专区
工具
TVP
发布

深度应用

专栏作者
242
文章
470394
阅读量
35
订阅数
[开发技巧]·TensorFlow中numpy与tensor数据相互转化(支持tf1.x-tf2.x)
鉴于tensorflow目前正在更新2.0版本,博主对博客也新增了适用于2.0版本动态度转换方法,更新于 --2019//09//29
小宋是呢
2022-12-02
5150
『Python开发实战菜鸟教程』工具篇:手把手教学使用VSCode开发Python
前些时间笔者写了两篇关于Python实战开放的博客,得到了不错的读者反馈,收获了800+的赞同有收藏,博客列表如下:
小宋是呢
2021-05-27
2.8K0
『JAX中文文档』JAX快速入门
简单的说就是GPU加速、支持自动微分(autodiff)的numpy。众所周知,numpy是Python下的基础数值运算库,得到广泛应用。用Python搞科学计算或机器学习,没人离得开它。但是numpy不支持GPU或其他硬件加速器,也没有对backpropagation的内置支持,再加上Python本身的速度限制,所以很少有人会在生产环境下直接用numpy训练或部署深度学习模型。这也是为什么会出现Theano, TensorFlow, Caffe等深度学习框架的原因。但是numpy有其独特的优势:底层、灵活、调试方便、API稳定且为大家所熟悉(与MATLAB一脉相承),深受研究者的青睐。JAX的主要出发点就是将numpy的以上优势与硬件加速结合。现在已经开源的JAX ( https://github.com/google/jax) 就是通过GPU (CUDA)来实现硬件加速。出自:https://www.zhihu.com/question/306496943/answer/557876584
小宋是呢
2021-04-29
2.1K0
『开发技术』MXNet中np.array与ndarray相互转换
在MXNet中,NDArray是一个类,也是存储和变换数据的主要工具。如果你之前用过NumPy,你会发现NDArray和NumPy的多维数组非常类似。然而,NDArray提供GPU计算和自动求梯度等更多功能,这些使NDArray更加适合深度学习。类似于TensorFlow的tensor与pytorch中的variable,学习NumPy操作方式,实现GPU计算,由于NumPy不支持GPU。
小宋是呢
2019-08-15
2.1K0
[开发技巧]·ImportError: cannot import name '_validate_lengths'解决方法
错误是这个:from numpy.lib.arraypad import _validate_lengths
小宋是呢
2019-06-27
14.5K0
[开发技巧]·PyTorch中Numpy,Tensor与Variable深入理解与转换技巧
我们使用Numpy也是可以手动去编写神经网络进行反向传播深度学习的,就是有两个问题,
小宋是呢
2019-06-27
1.8K3
[开发技巧]·TensorFlow中numpy与tensor数据相互转化
在我们使用TensorFlow进行深度学习训练时,很多时候都是与Numpy数据打招呼,例如我们csv或者照片数据等。 但是我们都知道,TensorFlow训练时都是使用Tensor来存储变量的,并且网络输出的结果也是Tensor。
小宋是呢
2019-06-27
1.2K0
[开发技巧]·pandas如何保存numpy元素
在开发的过程中遇到一个问题,就是需要把numpy作为pandas的一个元素进行保存,注意不是作为一列元素。但是实践的过程中却不顺利,会报错,现在我解决了这个问题,并且把心得和理解分享出来,希望能帮到后来人。
小宋是呢
2019-06-27
1.4K0
[开发技巧]·Python极简实现滑动平均滤波(基于Numpy.convolve)
滑动平均滤波法(又称递推平均滤波法),时把连续取N个采样值看成一个队列 ,队列的长度固定为N ,每次采样到一个新数据放入队尾,并扔掉原来队首的一次数据.(先进先出原则) 把队列中的N个数据进行算术平均运算,就可获得新的滤波结果。N值的选取:流量,N=12;压力:N=4;液面,N=4~12;温度,N=1~4
小宋是呢
2019-06-27
4.3K0
[开发技巧]·Numpy中对axis的理解与应用
在使用Numpy时我们经常要对Array进行操作,如果需要针对Array的某一个纬度进行操作时,就会用到axis参数。
小宋是呢
2019-06-27
5000
[开发技巧]·PyTorch如何使用GPU加速(CPU与GPU数据的相互转换)
在进行深度学习开发时,GPU加速可以提升我们开发的效率,速度的对比可以参照笔者这篇博文:[深度应用]·主流深度学习硬件速度对比(CPU,GPU,TPU)结论:通过对比看出相较于普通比较笔记本的(i5 8250u)CPU,一个入门级显卡(GPU MX150)可以提升8倍左右的速度,而高性能的显卡(GPU GTX1080ti)可以提升80倍的速度,如果采用多个GPU将会获得更快速度,所以经常用于训练的话还是建议使用GPU。
小宋是呢
2019-06-27
35K1
[开发技巧]·Numpy广播机制的深入理解与应用
我们在使用Numpy进行数据的处理时,经常会用到广播机制来简化操作,例如在所有元素都加上一个数,或者在某些纬度上作相同的操作。广播机制很方便,但是概念却也有些复杂,可能会让一些初学者感到困惑,在使用过程中,产生一些错误。
小宋是呢
2019-06-27
7040
[Python开发工具]·Python各类图像库的图片读写方式总结
最近在研究深度学习视觉相关的东西,经常需要写python代码搭建深度学习模型。比如写CNN模型相关代码时,我们需要借助python图像库来读取图像并进行一系列的图像处理工作。我最常用的图像库当然是opencv,很强大很好用,但是opencv也有一些坑,不注意的话也会搞出大麻烦。近期我也在看一些别人写的代码,因为个人习惯不一样,他们在做深度学习时用于图片读取的图像库各不相同,从opencv到PIL再到skimage等等各种库都有,有些库读进来的图片存储方式也不太一样,如果不好好总结这些主流图像读写库特点的话,以后看代码写代码都会遇坑无数。这篇文章就总结了以下主流Python图像库的一些基本使用方法和需要注意的地方:
小宋是呢
2019-06-27
1.3K0
[python3 Numpy 填坑之旅]使用Numpy广播机制实现数组与数字比较大小的问题
在使用Numpy开发的时候,遇到一个问题,需要Numpy数组的每一个元素都与一个数进行比较,返回逻辑数组。 我们在使用Numpy计算是可以直接使用数组与数字运算,十分方便。当我尝试使用广播机制来处理数组与数字比较大小问题的时候发现广播机制同样适用,以下是测试代码:
小宋是呢
2019-06-27
1.5K0
[python3 Numpy使用技巧]一条语句实现numpy数组relu激活函数
就是实现numpy数组中,小于零的元素赋值零。类似于神经网络里的激活函数,请看代码:
小宋是呢
2019-06-27
1.1K0
没有更多了
社区活动
腾讯技术创作狂欢月
“码”上创作 21 天,分 10000 元奖品池!
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档