腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
返回腾讯云官网
机器学习与python集中营
专注于python开发、机器学习、深度学习、人工智能领域的一颗小草。
专栏作者
举报
135
文章
482836
阅读量
75
订阅数
订阅专栏
申请加入专栏
全部文章(135)
神经网络(52)
python(40)
编程算法(40)
深度学习(38)
机器学习(30)
人工智能(26)
https(18)
网络安全(15)
图像识别(15)
卷积神经网络(7)
github(6)
开源(6)
keras(6)
批量计算(5)
存储(5)
javascript(4)
git(4)
numpy(4)
tensorflow(3)
java(3)
缓存(3)
对象存储(2)
其他(2)
c++(2)
node.js(2)
api(2)
linux(2)
unix(2)
文件存储(2)
http(2)
serverless(2)
正则表达式(2)
面向对象编程(2)
数据可视化(2)
NLP 服务(1)
自动驾驶(1)
bash(1)
actionscript(1)
.net(1)
scala(1)
html(1)
json(1)
matlab(1)
bash 指令(1)
访问管理(1)
图像处理(1)
网站(1)
svg(1)
分布式(1)
gui(1)
监督学习(1)
决策树(1)
二叉树(1)
pytorch(1)
tcp/ip(1)
scrapy(1)
kernel(1)
lnmp(1)
迁移学习(1)
大数据(1)
数据分析(1)
数据处理(1)
数据结构(1)
架构设计(1)
信息流(1)
sdn(1)
convolution(1)
data(1)
element(1)
fixed(1)
graph(1)
int(1)
map(1)
offline(1)
plotly(1)
shuffle(1)
trace(1)
博客(1)
搜索文章
搜索
搜索
关闭
十分钟掌握pyecharts十类顶级图,建议收藏!
python
机器学习
神经网络
深度学习
pyecharts几行代码就能绘制出有特色的的图形,绘图API链式调用,使用方便。
小草AI
2020-02-18
891
0
Python绘图还在用Matplotlib?out了 !发现一款手绘可视化神器!
api
机器学习
神经网络
深度学习
人工智能
来源:https://github.com/chenjiandongx/cutecharts
小草AI
2020-01-02
742
1
常用的模型集成方法介绍:bagging、boosting 、stacking
机器学习
神经网络
深度学习
人工智能
编程算法
本文介绍了集成学习的各种概念,并给出了一些必要的关键信息,以便读者能很好地理解和使用相关方法,并且能够在有需要的时候设计出合适的解决方案。
小草AI
2019-11-21
1K
0
轻量级卷积神经网络的设计技巧
https
网络安全
神经网络
这篇文章将从一个证件检测网络(Retinanet)的轻量化谈起,简洁地介绍,我在实操中使用到的设计原则和idea,并贴出相关的参考资料和成果供读者参考。因此本文是一篇注重工程性、总结个人观点的文章,存在不恰当的地方,请读者在评论区指出,方便交流。
小草AI
2019-11-20
1.2K
0
大幅减少训练迭代次数,提高泛化能力:IBM提出「新版Dropout」
python
神经网络
Dropout (Hinton et al.[2012]) 是提高深度神经网络(DNN)泛化能力的主要正则化技术之一。由于其简单、高效的特点,传统 dropout 及其他类似技术广泛应用于当前的神经网络中。dropout 会在每轮训练中随机忽略(即 drop)50% 的神经元,以避免过拟合的发生。如此一来,神经元之间无法相互依赖,从而保证了神经网络的泛化能力。在推理过程中会用到所有的神经元,因此所有的信息都被保留;但输出值会乘 0.5,使平均值与训练时间一致。这种推理网络可以看作是训练过程中随机生成的多个子网络的集合。Dropout 的成功推动了许多技术的发展,这些技术使用各种方法来选择要忽略的信息。例如,DropConnect (Wan et al. [2013]) 随机忽略神经元之间的部分连接,而不是神经元。
小草AI
2019-11-19
904
0
神经网络中,设计loss function有哪些技巧?
深度学习
机器学习
神经网络
人工智能
本文综合了几位大咖的观点而成。 作者:Alan Huang https://www.zhihu.com/question/268105631/answer/335246543
小草AI
2019-10-29
744
0
深度学习常用的 Normalization 方法:BN、LN、IN、GN
批量计算
机器学习
神经网络
深度学习
人工智能
常用的Normalization方法主要有:Batch Normalization(BN,2015年)、Layer Normalization(LN,2016年)、Instance Normalization(IN,2017年)、Group Normalization(GN,2018年)。它们都是从激活函数的输入来考虑、做文章的,以不同的方式对激活函数的输入进行 Norm 的。
小草AI
2019-10-24
5.1K
0
CNN中的目标多尺度处理
机器学习
神经网络
深度学习
人工智能
1. 后面实习要解决实例分割中的目标多尺度问题(当然不只是这个问题,还有其他的),为此对CNN中这几年的多尺度处理方法进行简要总结~_~,时间紧任务重,只记录了一点点东西,核心的还是要去看论文读代码。
小草AI
2019-10-22
893
0
【论文详解】目标检测算法之SSD 深入详解
存储
图像识别
https
神经网络
深度学习
目标检测近年来已经取得了很重要的进展,主流的算法主要分为两个类型:(1)two-stage方法,如R-CNN系算法,其主要思路是先通过启发式方法(selective search)或者CNN网络(RPN)产生一系列稀疏的候选框,然后对这些候选框进行分类与回归,two-stage方法的优势是准确度高;(2)one-stage方法,如Yolo和SSD,其主要思路是均匀地在图片的不同位置进行密集抽样,抽样时可以采用不同尺度和长宽比,然后利用CNN提取特征后直接进行分类与回归,整个过程只需要一步,所以其优势是速度快,但是均匀的密集采样的一个重要缺点是训练比较困难,这主要是因为正样本与负样本(背景)极其不均衡(参见Focal Loss,https://arxiv.org/abs/1708.02002),导致模型准确度稍低。不同算法的性能如图1所示,可以看到两类方法在准确度和速度上的差异。
小草AI
2019-10-22
1.6K
0
RAdam、LookAhead 双剑合璧,打造最强优化器
https
网络安全
神经网络
深度学习
今年 7 月,「深度学习教父」Geoffrey Hinton 和他的团队发表了一篇关于深度神经网络优化器的论文,介绍了一种新的优化器「LookAhead」 (《LookAhead optimizer: k steps forward, 1 step back》,https://arxiv.org/abs/1907.08610)。LookAhead 的设计得益于对神经网络损失空间理解的最新进展,提供了一种全新的稳定深度神经网络训练、稳定收敛速度的方法。
小草AI
2019-10-16
441
0
神经网络中的权值初始化:从最基本的方法到Kaiming方法一路走来的历程
神经网络
这篇文章通过实验一步一步验证了如何从最基础的初始化方法发展到Kaiming初始化方法,以及这之间的动机。
小草AI
2019-10-16
1.5K
0
干货|深度学习中的正则化技术概述(附Python+keras实现代码)
正则表达式
深度学习
神经网络
keras
数据科学研究者们最常遇见的问题之一就是怎样避免过拟合。你也许在训练模型的时候也遇到过同样的问题--在训练数据上表现非同一般的好,却在测试集上表现很一般。或者是你曾在公开排行榜上名列前茅,却在最终的榜单排名中下降数百个名次这种情况。那这篇文章会很适合你。
小草AI
2019-10-14
1.4K
0
一文概览深度学习中的激活函数
神经网络
本文从激活函数的背景知识开始介绍,重点讲解了不同类型的非线性激活函数:Sigmoid、Tanh、ReLU、LReLU、PReLU、Swish,并详细介绍了这些函数的优缺点。
小草AI
2019-10-14
509
0
一文看尽26种神经网络激活函数(从ReLU到Sinc)
神经网络
在神经网络中,激活函数决定来自给定输入集的节点的输出,其中非线性激活函数允许网络复制复杂的非线性行为。正如绝大多数神经网络借助某种形式的梯度下降进行优化,激活函数需要是可微分(或者至少是几乎完全可微分的)。此外,复杂的激活函数也许产生一些梯度消失或爆炸的问题。因此,神经网络倾向于部署若干个特定的激活函数(identity、sigmoid、ReLU 及其变体)。
小草AI
2019-09-30
1.4K
0
干货!深度学习相关的面试考点总结(常考)
神经网络
使用交叉熵损失的原因是它求导结果简单,易于计算,最后结果中Softmax损失函数对应于每一项概率的偏导即为通过Softmax计算出的概率向量中对应真正结果的那一维减1。比如通过若干层计算,最后得到某个训练样本对应的分类得分为[1, 5, 3],那么通过Softmax计算得到概率分别为[0.015, 0.886, 0.117],假设样本正确的分类为第二类,则对应每项的偏导为[0.015, 0.886-1, 0.117],根据这个向量就可以进行反向传播了
小草AI
2019-09-12
521
0
从Word2Vec到Bert,聊聊词向量
NLP 服务
神经网络
机器学习
深度学习
人工智能
谈到词向量则必须要从语言模型讲起,传统的统计语言模型是对于给定长度为m的句子,计算其概率分布P(w1, w2, ..., wm),以表示该句子存在的可能性。该概率可由下列公式计算得到:
小草AI
2019-08-26
4K
0
利用sklearn做特征工程详细教程
神经网络
说明:参数degree代表次数,默认为2。当输入为两个特征时,输出结果会对两个特征进行组合,结果特征的次数小于等于2。比如输入为特征[a,b] [a,b][a,b],则输出为[1,a,b,a2,ab,b2] [1,a,b,a^2, ab,b^2][1,a,b,a^2 ,ab,b^2 ]
小草AI
2019-08-09
1.7K
0
轻量级神经网络系列——MobileNet V3
神经网络
前面的轻量级网络架构中,介绍了mobilenet v1和mobilenet v2,前不久,google又在其基础之上推出新的网络架构,mobilenet v3.
小草AI
2019-07-19
13K
0
CNN中的目标多尺度处理策略汇总
机器学习
神经网络
深度学习
人工智能
1. 后面实习要解决实例分割中的目标多尺度问题(当然不只是这个问题,还有其他的),为此对CNN中这几年的多尺度处理方法进行简要总结~_~,时间紧任务重,只记录了一点点东西,核心的还是要去看论文读代码。
小草AI
2019-07-15
1.3K
0
轻量级神经网络系列——MobileNet V2
图像识别
神经网络
在前面的一篇文章中介绍了轻量级的网络架构mobilenet v1,本次续接第一篇,介绍V1的升级版本,mobilenet v2。
小草AI
2019-07-08
3.2K
0
点击加载更多
社区活动
腾讯技术创作狂欢月
“码”上创作 21 天,分 10000 元奖品池!
立即发文
Python精品学习库
代码在线跑,知识轻松学
立即查看
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
立即体验
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
立即查看
领券
问题归档
专栏文章
快讯文章归档
关键词归档
开发者手册归档
开发者手册 Section 归档