首页
学习
活动
专区
工具
TVP
发布

深度学习那些事儿

专栏成员
141
文章
436053
阅读量
56
订阅数
深度学习部署神器-triton inference server第一篇
老潘用triton有两年多了,一直想写个教程给大家。顺便自己学习学习,拖了又拖,趁着这次换版本的机会,终于有机会了写了。
老潘
2023-10-19
2.2K0
Mac mini M1使用体验(编程、游戏、深度学习)
前一阵子忍不住剁手买了M1芯片的mac mini,为了弥补自己的内疚感就卖了自己的旧的mbp2017款。数据也完全迁移到了新机器上,之前的工作也就由mbp2017彻底换成mac mini了,要换就换彻底点,不要给自己了留后路,哼。
老潘
2023-10-19
1.1K0
深度学习面试知识点汇总
这篇文章是自己在找工作中临时整理的一些知识点,内容比较杂碎,简单整理下发出来,适合面试前突击。另外推荐大家一本叫做《百面机器学习》的新书,2018年8月份出版的,其中包括了很多机器学习、深度学习面试过程中会遇到的问题,比较适合需要准备面试的机器学习、深度学习方面的算法工程师。
老潘
2023-10-19
3360
利用TensorRT实现神经网络提速(读取ONNX模型并运行)
在之前已经写到过一篇去介绍什么是TensorRT:利用TensorRT对深度学习进行加速,这篇文章中大概已经基本讨论了TensorRT究竟是个什么东西以及怎么使用它。
老潘
2023-10-19
2.8K1
利用TensorRT对深度学习进行加速
TensorRT是什么,TensorRT是英伟达公司出品的高性能的推断C++库,专门应用于边缘设备的推断,TensorRT可以将我们训练好的模型分解再进行融合,融合后的模型具有高度的集合度。例如卷积层和激活层进行融合后,计算速度可以就进行提升。当然,TensorRT远远不止这个:
老潘
2023-10-19
5600
更新深度学习装备:双(1080Ti)显卡装机实录
之前一直在装有一张1080Ti的服务器上跑代码,但是当数据量超过10W(图像数据集)的时候,训练时就稍微有点吃力了。速度慢是一方面,关键显存存在瓶颈,导致每次训练的batch-size不敢调的过高(batch-size与训练结果存在一定的关系),对训练结果的影响还是比较大的。
老潘
2023-10-19
1.1K0
生动形象好玩的深度学习资源推荐(一)
偶尔翻翻深度学习方面的新闻信息,不得不再次感慨:深度学习真的是太好玩了!兴趣最重要,抛开深度学习玄妙复杂的内涵不谈,我们不应该咱直接被其复杂公式和理论而吓退。相反,让我们来看看利用深度学习完成的好玩的应用,寓教于乐,在兴趣中学习才是最关键的。
老潘
2023-10-19
1610
快速入门TensorFlow.js指南
TensorFlow.JS,之前就发现这个好玩的东东,但是一直没有时间去看,作为一名深度学习者,没有折腾的心是不行的。我们都知道深度学习在工业和实际项目中有着很好的应用,但是如果用深度学习去做些有趣的应用也是很好玩的。
老潘
2023-10-19
3220
教你30分钟安装cuda环境下的torch(非Pytorch)
Pytorch我们都熟悉,是一个优秀的深度学习的运行库,但我们可能也知道Pytorch的前身torch。Torch也是一个优秀的深度学习库,运行语言是lua语言。既然我们有了Pytorch,为什么还要装torch呢?
老潘
2023-10-19
5820
NVIDIA关于AI部署的最新技术(附资料)
不得不相信英伟达总能给我们惊喜,老潘作为一名深度学习从业者以及游戏爱好者,对于这种与AI、GPU、并行计算相关的话题一直都是比较感兴趣。作为深度学习第一大硬件平台的英伟达,我们自然熟悉的不能再熟悉了。
老潘
2021-08-22
1.5K0
分析一下2020年度中国计算机视觉人才调研报告
最近闲来无事,老潘以一名普通算法工程师的角度,结合自身以及周围人的情况,理性也感性地分析一下极市平台前些天发布的2020年度中国计算机视觉人才调研报告。
老潘
2021-08-08
5970
AI部署以及工业落地学习之路
最近在复盘今年上半年做的一些事情,不管是训练模型、部署模型搭建服务,还是写一些组件代码,零零散散是有一些产出。
老潘
2021-08-07
1.5K1
逃不过呀!不论是训练还是部署都会让你踩坑的Batch Normalization
BN是2015年论文Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift提出的一种**数据归一化方法**。现在也是大多数神经网络结构的**标配**,我们可能已经**熟悉的不能再熟悉了**。
老潘
2021-08-07
2.8K0
随身GPU服务器:Kaggle中kernels的快速入门指南
对于很多入门深度学习领域的小伙伴来说啊,拥有一款合适的显卡是必要的,只有拥有好的装备才能更好更快地进行神经网络的训练、调试网络结构、改善我们的代码,进而更快地产出结果。
老潘
2019-03-27
6.8K0
解密Deepfake(深度换脸)-基于自编码器的(Pytorch代码)换脸技术
还记得在2018月3月份火爆reddit的deepfake吗?将视频中的头换成另一个人的头像,虽然可能有些粗糙和模糊,但是在分辨率不要求很高的情况下可以达到以假乱真的效果。
老潘
2019-01-23
4K0
我的模型能跑多快——神经网络模型速度调研(一)
对于神经网络,我们更多谈的是其精度怎么样,有百分之零点几的提升。但是如果谈到速度的话,深度学习神经网络相比于传统的算法来说,速度恐怕没有那么快了。
老潘
2018-12-17
5.1K0
浅谈深度学习的落地问题
关于深度学习人工智能落地,已经有有很多的解决方案,不论是电脑端、手机端还是嵌入式端,将已经训练好的神经网络权重在各个平台跑起来,应用起来才是最实在的。
老潘
2018-10-15
1.5K0
新显卡出世,我们来谈谈与深度学习有关的显卡架构和相关技术
可以说是万众期待下,老黄发布了消费级(民用级)显卡RTX2070、RTX2080、RTX2080TI,作为“大多数人”,不得不说在发布会即将结束的那一刻,真的很想预订一块。真的很有诱惑力啊,毕竟价格摆在那里,RTX2080TI显卡相比1080TI可是贵了许多,Founder Edition 版 京东上预订9999差不多1w了。
老潘
2018-08-30
3.4K0
深度学习为什么需要那么多的数据?
深度学习近两年来发展极为迅速,在计算能力大大提高的情况下,很多深度学习方向的思想都得以实现。但是,深度学习有一个令人头疼的缺点,那就是需要大量样本来进行训练才能达到较好的泛化。
老潘
2018-08-01
7700
理解深度学习:与神经网络相似的网络-自编码器(上)
本篇文章可作为<利用变分自编码器实现深度换脸(DeepFake)>(稍后放出)的知识铺垫。
老潘
2018-07-17
1.1K0
点击加载更多
社区活动
【纪录片】中国数据库前世今生
穿越半个世纪,探寻中国数据库50年的发展历程
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档