机器学习系列的小编终于回归了,哈哈!
关于基础内容的讲解在公众号的历史文章里哦,欢迎各位阅读。
说起厉害的神经网络算法就不能不提逻辑回归了。
上回我们带大家使用Python实现逻辑回归来辨别一只猫的图片,大家应该隐约感觉到逻辑回归的神奇了,不免好奇为什么它可以做识别呢?这就是回归的强大能力——分类!回归模型可以拟合数据集的输出,说人话就是,这个算法会“模仿”你给的数据集,然后可以预判啊,分类等等。
在大数据时代,数据挖掘数据处理很多地方都用到机器学习的算法,其中的逻辑回归只是非常非常基础的一个哦,对于我们今天的主题——神经网络,逻辑回归其实就是每一层“神经元”的前向传播层,读不懂?没关系哦,我们将以神经网络这个大章节为您娓娓道来美妙的机器学习。
神经网络(Neural Network)简称NN
创始人Geoffrey Hinton杰弗瑞·欣顿——神经网络之父
当下热门的深度学习是神经网络的一个十分重要的子集或者分支,它主要通过深层的神经网络来构建应用算法模型,基础结构是层数很多的神经网络
在实际的项目中,代码构建的深度神经网络会远远比上图复杂的多,不仅是输入的特征值数量惊人,就连整个网络的层数也可能很大。
在多层神经网络的结构下的发展出了各种各样的十分具有发展前景的模型,我们带大家简单了解一下目前十分热门的几种神经网络
卷积神经网络(CNN)主要应用于图像识别领域
对图片的像素矩阵进行层层卷积运算后输入到全连接层运算,在图像识别领域有着十分卓越的表现。在ImageNet大赛上,卷积架构大获成功,极大促进了深度学习的发展。
递归神经网络(RNN)主要应用于语音处理领域
递归神经网络分为两种,一个是时间递归(循环)神经网络,另一个是结构递归神经网络。它的独特使得神经网络拥有短期和长期记忆的能力,正是因为这样的功能,语音识别,机器翻译,从高斯算法迈进了一大步。