首页
学习
活动
专区
工具
TVP
发布

机器学习与python集中营

专注于python开发、机器学习、深度学习、人工智能领域的一颗小草。
专栏作者
135
文章
482056
阅读量
75
订阅数
十分钟掌握pyecharts十类顶级图,建议收藏!
pyecharts几行代码就能绘制出有特色的的图形,绘图API链式调用,使用方便。
小草AI
2020-02-18
8910
Python绘图还在用Matplotlib?out了 !发现一款手绘可视化神器!
来源:https://github.com/chenjiandongx/cutecharts
小草AI
2020-01-02
7421
常用的模型集成方法介绍:bagging、boosting 、stacking
本文介绍了集成学习的各种概念,并给出了一些必要的关键信息,以便读者能很好地理解和使用相关方法,并且能够在有需要的时候设计出合适的解决方案。
小草AI
2019-11-21
1K0
神经网络中,设计loss function有哪些技巧?
本文综合了几位大咖的观点而成。 作者:Alan Huang https://www.zhihu.com/question/268105631/answer/335246543
小草AI
2019-10-29
7440
深度学习常用的 Normalization 方法:BN、LN、IN、GN
常用的Normalization方法主要有:Batch Normalization(BN,2015年)、Layer Normalization(LN,2016年)、Instance Normalization(IN,2017年)、Group Normalization(GN,2018年)。它们都是从激活函数的输入来考虑、做文章的,以不同的方式对激活函数的输入进行 Norm 的。
小草AI
2019-10-24
5.1K0
CNN中的目标多尺度处理
1. 后面实习要解决实例分割中的目标多尺度问题(当然不只是这个问题,还有其他的),为此对CNN中这几年的多尺度处理方法进行简要总结~_~,时间紧任务重,只记录了一点点东西,核心的还是要去看论文读代码。
小草AI
2019-10-22
8930
Dropout、梯度消失、Adam 优化算法,神经网络优化算法看这一篇就够了
对于机器学习模型在训练数据集和测试数据集上的表现。如果你改变过实验中的模型结构或者超参数,你也许发现了:当模型在训练数据集上更准确时,它在测试数据集上却不⼀定更准确。这是为什么呢?
小草AI
2019-10-10
1.5K0
从Word2Vec到Bert,聊聊词向量
谈到词向量则必须要从语言模型讲起,传统的统计语言模型是对于给定长度为m的句子,计算其概率分布P(w1, w2, ..., wm),以表示该句子存在的可能性。该概率可由下列公式计算得到:
小草AI
2019-08-26
4K0
CNN中的目标多尺度处理策略汇总
1. 后面实习要解决实例分割中的目标多尺度问题(当然不只是这个问题,还有其他的),为此对CNN中这几年的多尺度处理方法进行简要总结~_~,时间紧任务重,只记录了一点点东西,核心的还是要去看论文读代码。
小草AI
2019-07-15
1.3K0
object detection中的非极大值抑制(NMS)算法
前言 什么是NMS算法呢?即非极大值抑制,它在目标检测、目标追踪、三维重建等方面应用十分广泛,特别是在目标检测方面,它是目标检测的最后一道关口,不管是RCNN、还是fast-RCNN、YOLO等算法,都使用了这一项算法。 一、概述 非极大值抑制(Non-Maximum Suppression,NMS),顾名思义就是抑制不是极大值的元素,可以理解为局部最大搜索。这个局部代表的是一个邻域,邻域有两个参数可变,一是邻域的维数,二是邻域的大小。这里不讨论通用的NMS算法(参考论文《Efficient Non-Maximum Suppression》对1维和2维数据的NMS实现),而是用于目标检测中提取分数最高的窗口的。例如在行人检测中,滑动窗口经提取特征,经分类器分类识别后,每个窗口都会得到一个分数。但是滑动窗口会导致很多窗口与其他窗口存在包含或者大部分交叉的情况。这时就需要用到NMS来选取那些邻域里分数最高(是行人的概率最大),并且抑制那些分数低的窗口。 NMS在计算机视觉领域有着非常重要的应用,如视频目标跟踪、数据挖掘、3D重建、目标识别以及纹理分析等。本文主要以目标检测中的应用加以说明。
小草AI
2019-06-02
4K0
【私人整理】空间金字塔池化网络SPPNet详解
之前的深度卷积神经网络(CNNs)都需要输入的图像尺寸固定(比如224×224)。这种人为的需要导致面对任意尺寸和比例的图像或子图像时降低识别的精度。为什么会降低精度呢?由于输入的图像大小固定,即数据维度固定,但是现实样本中往往很多样本是大小不一的,为了产生固定输入大小的样本,有两种主要的预处理措施:
小草AI
2019-06-02
8.4K0
【个人总结】一文看尽faster-RCNN的四大创新点
fast-RCNN是建立在前面的RCNN和SPPNet的基础之上的,虽然RCNN和SPPNet使得深度神经网络在目标检测领域有了一些新的技术突破,但是还远远没有达到真正的实时检测、端到端的出结果的程度,于是诞生了fast-RCNN,虽然在目前,已经明确有说明fast-RCNN是deprecate(贬低,贬损)的,但是从它里面所诞生的一些创新方法为后面的目标检测算法建立了一个很好的基础。小草收集了大量文献,整理了fast-RCNN的四大核心点。
小草AI
2019-06-02
4.6K0
【个人整理】faster-RCNN的训练过程以及关键点总结
前言:faster-RCNN是区域卷积神经网络(RCNN系列)的第三篇文章,是为了解决select search方法找寻region proposal速度太慢的问题而提出来的,整个faster-RCNN的大致框架依然是沿袭了fast-RCNN的基本能结构,只不过在region proposal的产生上面应用了专门的技术手段——区域推荐网络(region proposal network,即RPN),这是整个faster最难以理解的地方,本文也将以他为重点进行说明。鉴于篇幅较长,本次系列文章将分为3篇来说明:
小草AI
2019-06-02
16.2K1
【个人整理】faster-RCNN的核心构件——RPN区域推荐网络(二)
前言:faster-RCNN是区域卷积神经网络(RCNN系列)的第三篇文章,是为了解决select search方法找寻region proposal速度太慢的问题而提出来的,整个faster-RCNN的大致框架依然是沿袭了fast-RCNN的基本能结构,只不过在region proposal的产生上面应用了专门的技术手段——区域推荐网络(region proposal network,即RPN),这是整个faster最难以理解的地方,本文也将以他为重点进行说明。鉴于篇幅较长,本次系列文章将分为3篇来说明:
小草AI
2019-06-02
6.3K0
【个人整理】faster-RCNN的背景、结构以及大致实现架构(一)
前言:faster-RCNN是区域卷积神经网络(RCNN系列)的第三篇文章,是为了解决select search方法找寻region proposal速度太慢的问题而提出来的,整个faster-RCNN的大致框架依然是沿袭了fast-RCNN的基本能结构,只不过在region proposal的产生上面应用了专门的技术手段——区域推荐网络(region proposal network,即RPN),这是整个faster最难以理解的地方,本文也将以他为重点进行说明。鉴于篇幅较长,本次系列文章将分为3篇来说明:
小草AI
2019-06-02
5.7K0
20道深度学习面试题,有你不知道的吗?
首先权值共享就是滤波器共享,滤波器的参数是固定的,即是用相同的滤波器去扫一遍图像,提取一次特征特征,得到feature map。在卷积网络中,学好了一个滤波器,就相当于掌握了一种特征,这个滤波器在图像中滑动,进行特征提取,然后所有进行这样操作的区域都会被采集到这种特征,就好比上面的水平线。
小草AI
2019-06-02
2.1K0
深度学习不得不会的迁移学习(Transfer Learning)
在传统的机器学习的框架下,学习的任务就是在给定充分训练数据的基础上来学习一个分类模型;然后利用这个学习到的模型来对测试文档进行分类与预测。然而,我们看到机器学习算法在当前的Web挖掘研究中存在着一个关键的问题:一些新出现的领域中的大量训练数据非常难得到。我们看到Web应用领域的发展非常快速。大量新的领域不断涌现,从传统的新闻,到网页,到图片,再到博客、播客等等。传统的机器学习需要对每个领域都标定大量训练数据,这将会耗费大量的人力与物力。而没有大量的标注数据,会使得很多与学习相关研究与应用无法开展。其次,传统的机器学习假设训练数据与测试数据服从相同的数据分布。然而,在许多情况下,这种同分布假设并不满足。通常可能发生的情况如训练数据过期。这往往需要我们去重新标注大量的训练数据以满足我们训练的需要,但标注新数据是非常昂贵的,需要大量的人力与物力。从另外一个角度上看,如果我们有了大量的、在不同分布下的训练数据,完全丢弃这些数据也是非常浪费的。如何合理的利用这些数据就是迁移学习主要解决的问题。迁移学习可以从现有的数据中迁移知识,用来帮助将来的学习。迁移学习(Transfer Learning)的目标是将从一个环境中学到的知识用来帮助新环境中的学习任务。因此,迁移学习不会像传统机器学习那样作同分布假设。
小草AI
2019-06-02
1.2K0
还没听过“无锚点框(no anchor)”的检测算法?看看这篇吧!
目标检测通常采用传统的密集滑窗的方式或者当前主流的铺设锚点框(anchor)的检测方式,但不管哪种方式都不可避免地需要针对特定数据集设计甚至优化滑窗或锚点框超参数,从而增加了训练难度并限制了检测器的通用性。
小草AI
2019-06-02
3.3K0
Mask-RCNN最详细解读
最近在做一个目标检测项目,用到了Mask RCNN。我仅仅用了50张训练照片,训练了1000步之后进行测试,发现效果好得令人称奇。就这个任务,很久之前用yolo v1训练则很难收敛。不过把它们拿来比当然不公平,但我更想说的是,mask RCNN效果真的很好。
小草AI
2019-06-02
10K1
dropout技术原理及其各种变种深入详解
图 1:一些目前提出的 Dropout方法,以及 2012 到 2019 年间 Dropout 方法的理论进展。
小草AI
2019-06-02
4.8K0
点击加载更多
社区活动
腾讯技术创作狂欢月
“码”上创作 21 天,分 10000 元奖品池!
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档