首页
学习
活动
专区
工具
TVP
发布

深度学习之tensorflow实战篇

专栏作者
604
文章
1403618
阅读量
84
订阅数
关于决策树ID3算法,熵,信息增益率的权威解释,稍后奉上python代码
决策树分类算法概述 决策树算法是从数据的属性(或者特征)出发,以属性作为基础,划分不同的类。 看了本书,叫知识发现,内容很好,果断扫描 这里写图片描述
学到老
2019-02-14
8870
贝叶斯篇:贝叶斯的概率推到,朴素贝叶斯分类器及Python实现
首先,理解这两个公式的前提是理解条件概率,因此先复习条件概率。 P(A|B)=P(AB)P(B)P(A|B)=P(AB)P(B)P(A|B) ={ P(AB)\over P(B)}
学到老
2019-02-14
6210
RNN与LSTM之间的介绍和公式梳理
最近在整理tensorflow,经常用到RNN与lSTM,故整理如下: -RNN:循环神经网络(Recurrent Neural Networks) -LSTM:长短时记忆网络(Long Short-Term Memory)
学到老
2019-02-14
1.6K0
SPSS Modeler 介绍决策树
本文将通过 SPSS Modeler 介绍决策树 (Decision tree) 演算法于银行行销领域的应用实例。通过使用网路公开电销资料建立不同决策树模型,分析、解释并讨论模型结构,您将会了解各种决策树演算法及其不同之处,针对不同资料特征选择合适的决策树模型。
学到老
2019-02-14
1.8K0
R语言 判别分析
#贝叶斯判别 贝叶斯判别式假定对研究对象已有一定的认识 这种认识常用先验概率来描述
学到老
2019-02-14
6590
Rosenblatt感知器的结构 与基本原理
在学习了机器学习十大算法之后,我决定将目光投向神经网络,从而攀登深度学习的高峰。这条险路的第一个拦路虎就是Rosenblatt感知器。为什么这么说呢?不仅是因为它开拓性的贡献——感知器是第一个从算法上完整描述的神经网络,而Rosenblatt感知器是感知器作为监督学习的第一个模型。还因为学习Rosenblatt感知器能够帮助了解神经元的结构、信息流的传递以及知识的学习和存储,从而打开看待问题的全新视角——模拟人脑解决问题。当然,仅仅如此的话,它只能说是可口的羔羊,谈不上拦路的猛虎。自然是在理解这一问题时遇到了难处:1)Rosenblatt感知器为什么能收敛?《神经网络与机器学习》中的证明并不理想,它忽略了学习率和初始权重向量的影响;2)学习率和初始权重向量对迭代次数的影响是什么?3)它的更新过程与梯度下降法如此相似,不禁想问两者之间有何联系?4)线性可分两类问题通常在寻找一个分割超平面,Rosenblatt感知器也不例外,能否将这个超平面可视化,从而帮助理解?看!这真的是一个威风凛凛的猛虎,但它吓不倒人。下面开始我们的打虎过程。
学到老
2019-02-13
1.1K0
损失函数是机器学习里最基础|:损失函数的作用
前言:损失函数是机器学习里最基础也是最为关键的一个要素,通过对损失函数的定义、优化,就可以衍生到我们现在常用的机器学习等算法中
学到老
2019-02-13
1.5K0
随机森林,random forest
模型组合(比如说有Boosting,Bagging等)与决策树相关的算法比较多,这些算法最终的结果是生成N(可能会有几百棵以上)棵树,这样可以大大的减少单决策树带来的毛病,有点类似于三个臭皮匠等于一个诸葛亮的做法,虽然这几百棵决策树中的每一棵都很简单(相对于C4.5这种单决策树来说),但是他们组合起来确是很强大。
学到老
2019-02-13
5460
GBDT分解形式理解,整理中2018-5-10
  GBDT(Gradient Boosting Decision Tree) 又叫 MART(Multiple Additive Regression Tree),是一种迭代的决策树算法,该算法由多棵决策树组成,所有树的结论累加起来做最终答案。它在被提出之初就和SVM一起被认为是泛化能力(generalization)较强的算法。近些年更因为被用于搜索排序的机器学习模型而引起大家关注。 GBDT的思想可以用一个通俗的例子解释,假如有个人30岁,我们首先用20岁去拟合,发现损失有10岁,这时我们用6岁去拟合剩下的损失,发现差距还有4岁,第三轮我们用3岁拟合剩下的差距,差距就只有一岁了。如果我们的迭代轮数还没有完,可以继续迭代下面,每一轮迭代,拟合的岁数误差都会减小。
学到老
2019-01-25
3090
随机森林(Random Forest)  参数解读
随机森林(Random Forest)基本原理参考:https://blog.csdn.net/hhtnan/article/details/54580994
学到老
2019-01-25
3.3K0
XGBOOST从原理到实战:二分类 、多分类
xgboost是大规模并行boosted tree的工具,它是目前最快最好的开源boosted tree工具包,比常见的工具包快10倍以上。在数据科学方面,有大量kaggle选手选用它进行数据挖掘比赛,其中包括两个以上kaggle比赛的夺冠方案。在工业界规模方面,xgboost的分布式版本有广泛的可移植性,支持在YARN, MPI, Sungrid Engine等各个平台上面运行,并且保留了单机并行版本的各种优化,使得它可以很好地解决于工业界规模的问题。 下载地址:直通车
学到老
2019-01-25
15.2K0
多维度预测,基于keras预测房价操作
训练集404条,测试集102条;每条记录13个数值特征。 房价单位为1000美元。
学到老
2019-01-25
5410
基于keras的波士顿房价预测
训练集404条,测试集102条;每条记录13个数值特征。 房价单位为1000美元。
学到老
2019-01-25
6350
keras 基础入门整理
在进行自然语言处理之前,需要对文本进行处理。 本文介绍keras提供的预处理包keras.preproceing下的text与序列处理模块sequence模块
学到老
2019-01-25
1.4K0
keras之数据预处理
from keras.preprocessing.sequence import pad_sequences
学到老
2019-01-25
1.8K0
keras 整理之 Layers
将正整数(索引值)转换为固定尺寸的稠密向量。 例如: [[4], [20]] -> [[0.25, 0.1], [0.6, -0.2]]
学到老
2019-01-25
6470
命名实体标注基于keras的BiLstm与CRF与算法封装
基本概述 众所周知,通过Bilstm已经可以实现分词或命名实体标注了,同样地单独的CRF也可以很好的实现。既然LSTM都已经可以预测了,为啥要搞一个LSTM+CRF的hybrid model? 因为单
学到老
2019-01-25
2.6K0
使用Keras进行时间序列预测回归问题的LSTM实现
数据 数据来自互联网,这些数据用于预测航空公司的人数,我们使用LSTM网络来解决这个问题 关于此处模型构建,只对keras部分代码做重点的介绍
学到老
2019-01-25
6.5K0
自然语言处理之分词、命名主体识别、词性、语法分析-stanfordcorenlp-NER(二)
在前面我们介绍了Stanford CoreNLP, 自然语言处理之命名实体识别-tanfordcorenlp-NER(一)
学到老
2019-01-25
7.9K0
从零学习人工智能,开启职业规划之路!
零壹,资深算法工程师,目前担任 AI 医疗项目技术负责人,CSDN 专家。前供求世界网络科技运营总监、数学硕士,数十次获得建模奖项,全国研究生数学建模竞赛一等奖得主,热衷分享。个人微信号:huangtaonide、微信公众号:R-data、还有一个你。
学到老
2019-01-25
4110
点击加载更多
社区活动
Python精品学习库
代码在线跑,知识轻松学
热点技术征文第五期
新风口Sora来袭,普通人该如何把握机会?
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·干货材料·成员作品·最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档