首页
学习
活动
专区
工具
TVP
发布

机器学习与python集中营

专注于python开发、机器学习、深度学习、人工智能领域的一颗小草。
专栏作者
135
文章
484476
阅读量
75
订阅数
十分钟掌握pyecharts十类顶级图,建议收藏!
pyecharts几行代码就能绘制出有特色的的图形,绘图API链式调用,使用方便。
小草AI
2020-02-18
8940
Python绘图还在用Matplotlib?out了 !发现一款手绘可视化神器!
来源:https://github.com/chenjiandongx/cutecharts
小草AI
2020-01-02
7431
常用的模型集成方法介绍:bagging、boosting 、stacking
本文介绍了集成学习的各种概念,并给出了一些必要的关键信息,以便读者能很好地理解和使用相关方法,并且能够在有需要的时候设计出合适的解决方案。
小草AI
2019-11-21
1K0
神经网络中,设计loss function有哪些技巧?
本文综合了几位大咖的观点而成。 作者:Alan Huang https://www.zhihu.com/question/268105631/answer/335246543
小草AI
2019-10-29
7450
深度学习常用的 Normalization 方法:BN、LN、IN、GN
常用的Normalization方法主要有:Batch Normalization(BN,2015年)、Layer Normalization(LN,2016年)、Instance Normalization(IN,2017年)、Group Normalization(GN,2018年)。它们都是从激活函数的输入来考虑、做文章的,以不同的方式对激活函数的输入进行 Norm 的。
小草AI
2019-10-24
5.1K0
CNN中的目标多尺度处理
1. 后面实习要解决实例分割中的目标多尺度问题(当然不只是这个问题,还有其他的),为此对CNN中这几年的多尺度处理方法进行简要总结~_~,时间紧任务重,只记录了一点点东西,核心的还是要去看论文读代码。
小草AI
2019-10-22
8980
【论文详解】目标检测算法之SSD 深入详解
目标检测近年来已经取得了很重要的进展,主流的算法主要分为两个类型:(1)two-stage方法,如R-CNN系算法,其主要思路是先通过启发式方法(selective search)或者CNN网络(RPN)产生一系列稀疏的候选框,然后对这些候选框进行分类与回归,two-stage方法的优势是准确度高;(2)one-stage方法,如Yolo和SSD,其主要思路是均匀地在图片的不同位置进行密集抽样,抽样时可以采用不同尺度和长宽比,然后利用CNN提取特征后直接进行分类与回归,整个过程只需要一步,所以其优势是速度快,但是均匀的密集采样的一个重要缺点是训练比较困难,这主要是因为正样本与负样本(背景)极其不均衡(参见Focal Loss,https://arxiv.org/abs/1708.02002),导致模型准确度稍低。不同算法的性能如图1所示,可以看到两类方法在准确度和速度上的差异。
小草AI
2019-10-22
1.7K0
RAdam、LookAhead 双剑合璧,打造最强优化器
今年 7 月,「深度学习教父」Geoffrey Hinton 和他的团队发表了一篇关于深度神经网络优化器的论文,介绍了一种新的优化器「LookAhead」 (《LookAhead optimizer: k steps forward, 1 step back》,https://arxiv.org/abs/1907.08610)。LookAhead 的设计得益于对神经网络损失空间理解的最新进展,提供了一种全新的稳定深度神经网络训练、稳定收敛速度的方法。
小草AI
2019-10-16
4410
干货|深度学习中的正则化技术概述(附Python+keras实现代码)
数据科学研究者们最常遇见的问题之一就是怎样避免过拟合。你也许在训练模型的时候也遇到过同样的问题--在训练数据上表现非同一般的好,却在测试集上表现很一般。或者是你曾在公开排行榜上名列前茅,却在最终的榜单排名中下降数百个名次这种情况。那这篇文章会很适合你。
小草AI
2019-10-14
1.4K0
Dropout、梯度消失、Adam 优化算法,神经网络优化算法看这一篇就够了
对于机器学习模型在训练数据集和测试数据集上的表现。如果你改变过实验中的模型结构或者超参数,你也许发现了:当模型在训练数据集上更准确时,它在测试数据集上却不⼀定更准确。这是为什么呢?
小草AI
2019-10-10
1.5K0
如何将Numpy加速700倍?用 CuPy 呀
就其自身来说,Numpy 的速度已经较 Python 有了很大的提升。当你发现 Python 代码运行较慢,尤其出现大量的 for-loops 循环时,通常可以将数据处理移入 Numpy 并实现其向量化最高速度处理。
小草AI
2019-09-03
1.2K0
从Word2Vec到Bert,聊聊词向量
谈到词向量则必须要从语言模型讲起,传统的统计语言模型是对于给定长度为m的句子,计算其概率分布P(w1, w2, ..., wm),以表示该句子存在的可能性。该概率可由下列公式计算得到:
小草AI
2019-08-26
4K0
CNN中的目标多尺度处理策略汇总
1. 后面实习要解决实例分割中的目标多尺度问题(当然不只是这个问题,还有其他的),为此对CNN中这几年的多尺度处理方法进行简要总结~_~,时间紧任务重,只记录了一点点东西,核心的还是要去看论文读代码。
小草AI
2019-07-15
1.3K0
object detection中的非极大值抑制(NMS)算法
前言 什么是NMS算法呢?即非极大值抑制,它在目标检测、目标追踪、三维重建等方面应用十分广泛,特别是在目标检测方面,它是目标检测的最后一道关口,不管是RCNN、还是fast-RCNN、YOLO等算法,都使用了这一项算法。 一、概述 非极大值抑制(Non-Maximum Suppression,NMS),顾名思义就是抑制不是极大值的元素,可以理解为局部最大搜索。这个局部代表的是一个邻域,邻域有两个参数可变,一是邻域的维数,二是邻域的大小。这里不讨论通用的NMS算法(参考论文《Efficient Non-Maximum Suppression》对1维和2维数据的NMS实现),而是用于目标检测中提取分数最高的窗口的。例如在行人检测中,滑动窗口经提取特征,经分类器分类识别后,每个窗口都会得到一个分数。但是滑动窗口会导致很多窗口与其他窗口存在包含或者大部分交叉的情况。这时就需要用到NMS来选取那些邻域里分数最高(是行人的概率最大),并且抑制那些分数低的窗口。 NMS在计算机视觉领域有着非常重要的应用,如视频目标跟踪、数据挖掘、3D重建、目标识别以及纹理分析等。本文主要以目标检测中的应用加以说明。
小草AI
2019-06-02
4K0
【私人整理】空间金字塔池化网络SPPNet详解
之前的深度卷积神经网络(CNNs)都需要输入的图像尺寸固定(比如224×224)。这种人为的需要导致面对任意尺寸和比例的图像或子图像时降低识别的精度。为什么会降低精度呢?由于输入的图像大小固定,即数据维度固定,但是现实样本中往往很多样本是大小不一的,为了产生固定输入大小的样本,有两种主要的预处理措施:
小草AI
2019-06-02
8.4K0
【个人总结】一文看尽faster-RCNN的四大创新点
fast-RCNN是建立在前面的RCNN和SPPNet的基础之上的,虽然RCNN和SPPNet使得深度神经网络在目标检测领域有了一些新的技术突破,但是还远远没有达到真正的实时检测、端到端的出结果的程度,于是诞生了fast-RCNN,虽然在目前,已经明确有说明fast-RCNN是deprecate(贬低,贬损)的,但是从它里面所诞生的一些创新方法为后面的目标检测算法建立了一个很好的基础。小草收集了大量文献,整理了fast-RCNN的四大核心点。
小草AI
2019-06-02
4.7K0
【个人整理】faster-RCNN的训练过程以及关键点总结
前言:faster-RCNN是区域卷积神经网络(RCNN系列)的第三篇文章,是为了解决select search方法找寻region proposal速度太慢的问题而提出来的,整个faster-RCNN的大致框架依然是沿袭了fast-RCNN的基本能结构,只不过在region proposal的产生上面应用了专门的技术手段——区域推荐网络(region proposal network,即RPN),这是整个faster最难以理解的地方,本文也将以他为重点进行说明。鉴于篇幅较长,本次系列文章将分为3篇来说明:
小草AI
2019-06-02
16.2K1
【个人整理】faster-RCNN的核心构件——RPN区域推荐网络(二)
前言:faster-RCNN是区域卷积神经网络(RCNN系列)的第三篇文章,是为了解决select search方法找寻region proposal速度太慢的问题而提出来的,整个faster-RCNN的大致框架依然是沿袭了fast-RCNN的基本能结构,只不过在region proposal的产生上面应用了专门的技术手段——区域推荐网络(region proposal network,即RPN),这是整个faster最难以理解的地方,本文也将以他为重点进行说明。鉴于篇幅较长,本次系列文章将分为3篇来说明:
小草AI
2019-06-02
6.4K0
【个人整理】faster-RCNN的背景、结构以及大致实现架构(一)
前言:faster-RCNN是区域卷积神经网络(RCNN系列)的第三篇文章,是为了解决select search方法找寻region proposal速度太慢的问题而提出来的,整个faster-RCNN的大致框架依然是沿袭了fast-RCNN的基本能结构,只不过在region proposal的产生上面应用了专门的技术手段——区域推荐网络(region proposal network,即RPN),这是整个faster最难以理解的地方,本文也将以他为重点进行说明。鉴于篇幅较长,本次系列文章将分为3篇来说明:
小草AI
2019-06-02
5.8K0
20道深度学习面试题,有你不知道的吗?
首先权值共享就是滤波器共享,滤波器的参数是固定的,即是用相同的滤波器去扫一遍图像,提取一次特征特征,得到feature map。在卷积网络中,学好了一个滤波器,就相当于掌握了一种特征,这个滤波器在图像中滑动,进行特征提取,然后所有进行这样操作的区域都会被采集到这种特征,就好比上面的水平线。
小草AI
2019-06-02
2.1K0
点击加载更多
社区活动
腾讯技术创作狂欢月
“码”上创作 21 天,分 10000 元奖品池!
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档