深度学习之tensorflow实战篇

588 篇文章
70 人订阅

神经网络

学到老

关于决策树ID3算法,熵,信息增益率的权威解释,稍后奉上python代码

决策树分类算法概述 决策树算法是从数据的属性(或者特征)出发,以属性作为基础,划分不同的类。 看了本书,叫知识发现,内容很好,果断扫描 这里...

17140
学到老

贝叶斯篇:贝叶斯的概率推到,朴素贝叶斯分类器及Python实现

首先,理解这两个公式的前提是理解条件概率,因此先复习条件概率。 P(A|B)=P(AB)P(B)P(A|B)=P(AB)P(B)P(A|B) ={ P(AB...

9820
学到老

RNN与LSTM之间的介绍和公式梳理

最近在整理tensorflow,经常用到RNN与lSTM,故整理如下: -RNN:循环神经网络(Recurrent Neural Networks) -...

22010
学到老

sigmoid和tanh求导的最终结果,以及Sigmoid函数与损失函数求导

​ 从上图,我们得到了这样的几个信息,指数函数过(0,1)点,单调递增/递减,定义域为(−∞,+∞),值域为(0,+∞),再来我们看一下sigmoid函数的图像...

16830
学到老

R语言 判别分析

#贝叶斯判别 贝叶斯判别式假定对研究对象已有一定的认识 这种认识常用先验概率来描述

14040
学到老

Rosenblatt感知器的结构 与基本原理

在学习了机器学习十大算法之后,我决定将目光投向神经网络,从而攀登深度学习的高峰。这条险路的第一个拦路虎就是Rosenblatt感知器。为什么这么说呢?不仅是因为...

10020
学到老

损失函数是机器学习里最基础|:损失函数的作用

前言:损失函数是机器学习里最基础也是最为关键的一个要素,通过对损失函数的定义、优化,就可以衍生到我们现在常用的机器学习等算法中

15620
学到老

随机森林,random forest

模型组合(比如说有Boosting,Bagging等)与决策树相关的算法比较多,这些算法最终的结果是生成N(可能会有几百棵以上)棵树,这样可以大大的减少单决策树...

8920
学到老

聚类方法的区别解读:各种聚类分析呀呀呀

k 均值聚类法 快速高效,特别是大量数据时,准确性高一些,但是需要你自己指定聚类的类别数量 系统聚类法则是系统自己根据数据之间的距离来自动列出类别,所以通过系统...

25730
学到老

深度学习入门(一),从Keras开始

安装环境:Anaconda(python3.6) 首先安装:tensorflow.(通过navigator,可参见直通车) 检验:import ten...

19140
学到老

GBDT分解形式理解,整理中2018-5-10

  GBDT(Gradient Boosting Decision Tree) 又叫 MART(Multiple Additive Regression Tre...

11850
学到老

随机森林(Random Forest)  参数解读

随机森林(Random Forest)基本原理参考:https://blog.csdn.net/hhtnan/article/details/54580994

11210
学到老

keras之数据预处理

from keras.preprocessing.sequence import pad_sequences

32570
学到老

命名实体标注基于keras的BiLstm与CRF与算法封装

众所周知,通过Bilstm已经可以实现分词或命名实体标注了,同样地单独的CRF也可以很好的实现。既然LSTM都已经可以预测了,为啥要搞一个LSTM+CRF的hy...

41570
学到老

使用Keras进行时间序列预测回归问题的LSTM实现

数据 数据来自互联网,这些数据用于预测航空公司的人数,我们使用LSTM网络来解决这个问题 关于此处模型构建,只对keras部分代码做重点的介绍

91440
学到老

神经网络中的学习速率如何理解

特征缩放 实际当我们在计算线性回归模型的时候,会发现特征变量x,不同维度之间的取值范围差异很大。这就造成了我们在使用梯度下降算法的时候,由于维度之间的差异使得J...

39460

扫码关注云+社区

领取腾讯云代金券