编写你人生中第一个机器学习代码吧!

用 Python 实现第一段机器学习代码,跟我一起来吧!

我们先要学习的机器学习算法是监督学习,那么,何为监督学习呢?要了解监督学习,我们得先回顾下我们平时的编码方式。我们平时的编码方式是一种硬编码,简而言之就是面对问题的时候,我们通过正向暴力编码,将问题的各个方面和逻辑通过编码来处理,从而使得代码按照我们的思路一步步运行下去,最终解决我们的既定问题。

打个比方,假设我们要写一个代码来区分一个人的性别,我们可能首先会提取出男人和女人的特点,比如男人可能有胡子,有喉结,身高普遍在一个 xx 范围这样,那么我们就可以根据这些属性来编写一些判断条件,最终实现一个算法,然后把某个人具备的属性输入到算法,算法输出一个结果,告诉你这个人可能是啥性别。

这样可能能实现一个算法,但会有两个问题。首先就是这些属性的确定,决定一个人是什么性别的属性可能有很多,如果属性太多,靠人工来编写算法就会显得非常不实际。其次,这些属性对于最终输出结果的影响是有限的,总会存在特例,有的男人就是不长胡子,或者有的女人身高很高,面对这种比较特殊的个例的时候,算法就非常有可能出错,显然,单纯的依靠硬编码,是不可能做到尽善尽美的。

而监督学习算法的做法就是,把一些既定的样本输入给算法,这些样本包括具体的特征属性和具体的输出,比如「一个人身高一米八,有胡子,有喉结」,这是它的样本输入,「这个人是个男人」是它的输出,这些具有明确输入和结果的样本输入到监督学习算法后,它会自己进行学习和总结,随着样本数量的增多,监督学习的判断规则将会被训练的 越来越准确和成熟。随后,面对它从未见过的样本,比如「一米六,没胡子,有喉结」,算法就会根据之前的规则给出一个它的判断,告诉你这个人可能是个啥性别。

我们把胡子、喉结这些属性成为特征-Features,男人还是女人这样的输出结果称为标签-Label。为了实现这样的一个功能,我们需要一个分类器,那么,我们整个监督学习的过程大概是这样的。

scikit-learn 可以帮我们轻易的实现上面的需求,如果你安装过 Anaconda,scikit-learn 就已经包含其中了,其他下载方式这里不再赘述。

如果你是使用 Python 来学习机器学习,scikit-learn 肯定是你必须要使用的机器学习库,scikit-learn 是非常保守的库,它专业性极强,只做机器学习领域,从来不会作任何机器学习领域之外的扩展。不仅如此,scikit-learn 使用的机器学习算法都是经过广泛验证过的算法,这些算法往往也是效率最高,实现最简单有效的。所以,阅读 scikit-learn 的源码实现也是一个非常好的学习方式。

scikit-learn 官网 : http://scikit-learn.org/stable/

下面我们用具体的代码来演示上面说过的三个过程。

收集真实训练数据

在现实的应用环境中,我们获取数据的方式是多种多样的,比如,你可以通过读取已有文件来获取数据,或者是动态的监听数据,每获取一条数据就输入一条数据。我们就不这么复杂了,用上面判断性别的例子,简单的模拟几个数据:

>> features = [[160,30,2.1],[170,15,2.3],[178,8,2.5],[188,10,2.8],[167,22,2.2]]
>> labels = [0,0,1,1,0]

features 是我们的特征,拿第一个数据 [160,30,2.1] 举例子,160 代表的是身高,30 代表的是头发长度,2.1 代表的是腰围,单位为尺。好吧,原谅我想象力有点渣渣,可能例子不好,总之目前我们使用身高、头发长度以及腰围来作为我们判断性别的特征,当然,你还可以提取出更多的特征,这里只是为了我们测试方便。labels 就是我们的标签了,0 代表这个人性别为女,1 代表性别为男

这样, 我们就算完成了第一步,收集好了真实数据

训练分类器

拿到了数据源,我们需要挑选一种分类器来训练这组数据,这里我们选择决策树,可以先暂时不要管决策树是什么,你可以把它当做实现分类器的一种形式罢了

>> from sklearn import tree
>> clf = tree.DecisionTreeClassifier()
>> clf.fit(features,labels)

sklearn 即是 scikit-learn 库,我们引入库中的决策树类,并使用 fit() 函数来匹配特征和标签,这样,我们的分类器就算实现好了,clf 完成了它的训练。

对数据作出预测

实际上你可以把分类器想像成一个黑盒子,通过一些数据的训练,这个盒子就具备了一定的判断能力,当你再次输入进数据的时候,它能够得到相应的预测,至于这个盒子里面到底使用了什么方法根据数据的训练来指定规则,就是你选取的算法所做的事了,比如在这里,我们选择了决策树来作为分类器制定规则的算法,当然你还有很多算法可以选择,也可以自己实现算法,这不在我们这篇文章的讲述范围内。下面,我们使用实现好的分类器,对一个未知数据进行预测

>> print(clf.predict([[180, 15, 2.3]]))
[0]

我们使用 predict() 函数来对一组分类器从未见过的数据来进行预测。分类器认为一个一米八大个,长着 15 厘米长秀发,腰围 2.3 尺 的高大个是个女孩。好吧,这是它的想法。

原文发布于微信公众号 - WeaponZhi(WeaponZhi)

原文发表时间:2017-12-30

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏Python中文社区

ALI的Tensorflow炼成与GAN科普

專 欄 ❈那只猫,Python中文社区专栏作者,Python中文社区新Logo设计人,纯种非CS科班数据分析人,沉迷Keras。在Cambridge做了点小事...

22910
来自专栏企鹅号快讯

从零开始,教初学者如何征战全球最大机器学习竞赛社区Kaggle竞赛

在学习过深度学习的基础知识之后,参与实践是继续提高自己的最好途径。本文将带你进入全球最大机器学习竞赛社区 Kaggle,教你如何选择自己适合的项目,构建自己的模...

19410
来自专栏机器之心

学界 | ImageNet 2017目标定位冠军论文:双路径网络

选自arXiv 作者:Yunpeng Chen等 机器之心编译 参与:蒋思源、Smith 最后一届 ImageNet 挑战赛刚刚落下帷幕,而新加坡国立大学参与的...

2907
来自专栏PPV课数据科学社区

百度校园招聘数据挖掘工程师面试题集锦(2013)

一、简答题(30分) 1、简述数据库操作的步骤(10分) 步骤:建立数据库连接、打开数据库连接、建立数据库命令、运行数据库命令、保存数据库命令、关闭数据库连接。...

3935
来自专栏机器之心

谷歌终于开源BERT代码:3 亿参数量,机器之心全面解读

今日,谷歌终于放出官方代码和预训练模型,包括 BERT 模型的 TensorFlow 实现、BERT-Base 和 BERT-Large 预训练模型和论文中重要...

1792
来自专栏人工智能

在Keras中如何对超参数进行调优?

由于没有一个成熟的理论来解释神经网络,所以配置神经网络通常是困难的,经常被同学们调侃为“炼丹”。

4.6K10
来自专栏机器之心

教程 | 斯坦福CS231n 2017最新课程:李飞飞详解深度学习的框架实现与对比

选自Stanford 作者:李飞飞等 机器之心编译 参与:Smith、蒋思源 斯坦福大学的课程 CS231n (Convolutional Neural Ne...

3328
来自专栏人工智能头条

使用GPU和Theano加速深度学习

1524
来自专栏AI传送门

keras教程:卷积神经网络(CNNs)终极入门指南

5055
来自专栏Petrichor的专栏

深度学习: LeNet 网络

该网络在字符识别上取得了高于99%的准确率,因此主要被用于字符识别的卷积神经网络。

2223

扫码关注云+社区

领取腾讯云代金券