首页
学习
活动
专区
工具
TVP
发布

小鹏的专栏

专栏作者
331
文章
392683
阅读量
56
订阅数
RNN:几张图搞懂RNN模型构建
循环神经网络(RNN, Recurrent Neural Networks)介绍:http://blog.csdn.net/u014365862/article/details/50896554
MachineLP
2022-05-09
4640
机器学习-24:MachineLN之朴素贝叶斯源码
你要的答案或许都在这里:小鹏的博客目录 上一篇介绍了朴素贝叶斯的原理:MachineLN之朴素贝叶斯 下面为源码: from numpy import * # 构建一个简单的文本数据集, 包含两个类别。 def loadDataSet():    postingList=[['my', 'dog', 'has', 'flea', 'problems', 'help', 'please'],                 ['maybe', 'not', 'take', 'him', 'to', 'do
MachineLP
2022-05-09
2320
机器学习-23:MachineLN之朴素贝叶斯
贝叶斯模型是指模型参数的推断用的是贝叶斯估计方法,也就是需要指定先验分布,再求取后验分布。
MachineLP
2022-05-09
3070
机器学习-22:MachineLN之RL
原本打算将机器学习基础写完以后再写深度学习、强化学习、迁移学习的内容,但是现在看还是中间穿插一点比较好。
MachineLP
2022-05-09
3490
机器学习-21:MachineLN之SVM源码
其实很多事情一定要找好自己的节奏,因为你会发现你不会的东西太多了,千万不要被带跑了。
MachineLP
2022-05-09
2660
机器学习-20:MachineLN之SVM(2)
其实想一下从上学到毕业,学了那么多有多少是真实用到的呢?但是这些事潜移默化影响你的东西,其实我们学习的并不是真实的会这些知识(并且有很多知识现在过时),而是我们学习的是一种快速学习一门知识的能力,要的就是这个快字;怎么一个快字了得,对不光快还要稳;直到今天才真正了解一些教育的含义,并不是死记硬背,而是举一反三,并不是拿来主义,而是针对特定问题特定场景特定解决;并不是随波逐流,而是扬起自己的帆远航;并不是svm,而是一种境界;
MachineLP
2022-05-09
1750
机器学习-19:MachineLN之SVM(1)
说起SVM很多人都会感觉头疼,无非就是公式多一个,其实很多时候你真是用的话,都不用你手动自己实现,你是在学习的一种机器学习的思维方式,就要比为什么要提出svm?svm解决了什么问题?svm中的kernel又是想解决线性svm解决不了的问题?svm的优势在哪里?就好比生活中不缺乏美,只是缺少发现美的眼睛,在学习中发现问题的能力及其重要,当你问题多了很多人会感觉你烦,但是没关系,解决了就会柳暗花明;并且要时常问自己从中学到了什么?再遇到问题是否可以拿来主义?还是可以从中借鉴?
MachineLP
2022-05-09
2340
机器学习-18:MachineLN之逻辑回归源码
上一节:MachineLN之逻辑回归,讲述了逻辑回归的原理,今天看一下带详细注释的源码:切记好代码都是敲出来的,并且越敲越有感觉:
MachineLP
2022-05-09
1570
机器学习-17:MachineLN之逻辑回归
逻辑回归可以这样理解: 和感知机比较着来看或许更好,将感知机的表达式中的sign函数换成sigmoid就是逻辑回归的表达式,但是这一换不要紧,导致后边参数更新的方式完全不同,因为逻辑回顾的损失函数是参数连续可导的,还记得我们说过感知机的损失函数是参数连续不可导的吗? :MachineLN之感知机
MachineLP
2022-05-09
1650
机器学习-16:MachineLN之感知机源码
其实很多东西还是要靠自己,靠自己去完成最大的一点就是远离舒适区,试想一下自己每时每刻都要为下一顿能不能吃上饭而奋斗,是一种什么样的体验,估计你连想都不敢想;最近又听到说下岗的问题,有一个人说他除了收钱什么都不会,有时候也要多培养点自己的能力,做好一项,其他的也了解(当然也不了太多),多给自己备好能力,远离舒适区,但无论在哪里都有这么一批人,那你考虑过没有公司万一不景气,第一个下岗的会是谁?下岗了又可以迅速跨到别的领域的又是谁?我做不到这一点,但我在加油,要永远记住:公司不养闲人!比你优秀的人比你还努力,你还好意思说你不会?不会可以学啊,不学永远不会,哈哈,言辞过激了吗,也不知道咋地,最近着魔了吧!!!
MachineLP
2022-05-09
2370
机器学习-15:MachineLN之感知机
其实感知机虽然原理简单,但是不得不说他的意义重大,为什们呢? 他是SVM的前身,后面的SVM是由此进化来的,其实两个结合起来学习会更好的,但是内容太多,SVM三境界,我可能还是停留在“昨夜西风调碧树,独上高楼,望尽天涯路”, 期待突破后面的两重天:“衣带渐宽终不悔,为伊消得人憔碎”, “众里寻他千百度,蓦然回首,那人却在,灯火阑珊处”。说起三境界不得不提佛家三境界:看山是山,看水是水;看山不是山,看水不是水;看山还是山,看水还是水。两者相通互补吧,才疏学浅不敢瞎说,理解还是有点困难的,突然感觉很多事情都是相通的,分久必合,合久必分?乱了乱了,我整天就知道瞎说,别介意。另外最近开始想这么一个问题:什么样的数据不适合用卷积? 什么样的数据不适合用池化? 什么样的数据只适合用全连接的结构? 稍微有点眉目;感觉真的没有通用的网络!!!真是悲哀,以前提通用AI差点被骂死,出来DL后没人再提,只是说针对特定领域特定问题的AI;
MachineLP
2022-05-09
2580
机器学习-14:MachineLN之kNN源码
其实你坚持的东西都是有意义的,就好比给代码加注释,你真去做了就知道了;另外建议大家建立一个自己的工具箱,就像我建立一个MachineLP_tools,里面放可以复用的代码,然后支持大家开源,你手上现有的代码可能很快就会过时,希望能够在有效期内发挥最大的功效;最后建议自己搭建一个自己的机器学习训练框架,用着顺手、用着舒服、用着放心,比起相信别人,相信大家更相信自己。
MachineLP
2022-05-09
2500
机器学习-13:MachineLN之kNN
其实训练模型是个力气活,有人说训练模型很简单,把数据塞进去,然后跑完就好了,哦,这样的话谁都会,关键的也就在这里,同样的数据同样的模型,有些人训练的模型在测试集上99%,有些人的则只有95%,甚至90%,其实学习最关键的也在这里,大家同时学一个知识,也都学了,但是理解的程度会大相径庭,注意trick不可不学,并且坑不得不踩。唉,前几天训练好的一个模型,再让自己复现感觉也很难搞定了,天时地利人和!!!今天开始搞传统机器学习的理论和实践,突然发现这是自己的短板,其实也不是啦:李航老师统计学看了4遍,周志华老师机器学习看了一遍,模式分类那本大厚书粗略看了一遍,经典的数据挖掘看了一遍,还看了一本机器学习的忘记名字了,吴恩达的课看了一遍,还看了一些英文资料,机器学习实践照着敲了一遍,在就是一些零零碎碎的.....,虽然做过一些实践,但是缺乏工程上的磨练。
MachineLP
2022-05-09
3480
机器学习-12:MachineLN之优化算法
其实很多时候应该审视一下自己,知道自己的不足和长处,然后静下来去做一些事情,只有真正静下来才能深下去,只有深下去了才能有所突破,不要被别人的脚步带跑,无论什么时候专而精更重要,同时我也知自己的不足,有点狂、有点浮躁、坚持自己观点喜欢争论、说话有时候伤人等等,但是我的优点也正在此(下面是05年9月份写的《自己-社会-机器学习》的一篇文章,虽然有点浮躁,但是值得我再去回顾):感觉自己成长了不少,不再抱怨,不再发脾气,不再那么要强,不再看重别人的眼光,更加注重自己的评价,开始接受一些事情,棱角开始慢慢圆滑,但是我了解自己,是绝不会消失,有些东西决不能随波逐流,社会锻炼了我们,最终也会将越来越好的自己放到社会中实践,这是一个无限循环的事情,最后的结果就是社会和我们都将越来越好,这也是一个漫长的过程,也需要充足的空间给我们释放,这就要看你的程序的时间复杂度和空间复杂度,这个好了,过程就会快一点,其实想一下,很多时候,我们就是在找一个最优解,但是社会的进步估计我们永远找到的也只能是局部最优了吧,也就是说在某个时间段我们尽最大可能想到的最好决策,至于全局最优解,这个问题还真是个无人能解的问题吧,马克思列宁提的共产主义可能就是我们最想要的那个损失函数的最小值,但是怎么能找到那个最适合的权重呢,来达到全局最优,值得思考?我们可能要像梯度下降那样了,慢慢的来调节权重,达到某阶段的最优,当然大神们都有自己的方法,这点不能否认,但是弯路是要走的,不如把眼光放长远,让我们一起期待。
MachineLP
2022-05-09
3830
机器学习-11:MachineLN之过拟合
其实很多时候大家都想自己做一些事情,但是很多也都是想想而已,其实有了想法自己感觉可行,就可以去行动起来,去尝试,即使最后败了,也无怨无悔,有句话说的很好:成功收获成果,失败收获智慧,投入收获快乐!反而有时候顾及的太多,本应该做的事情错过了,怪谁呢?我跟大家不同的是无论什么事情,先做了再说吧! 
MachineLP
2022-05-09
3280
机器学习-10:MachineLN之样本不均衡
其实很多时候,有竞争是好的事情,可以促进你的成长,可以磨练你的耐性,可以提升你的魅力,可以表现你的豁达,可以体验成功的喜悦,可以感受失败其实并不可怕,可怕的是你没有面对失败的勇气;而今天的社会达尔文的进化论其实从来没有变过,唯一不变的事情想必就是变了,做慈善的是慈善机构,做教育的是学校,百依百顺的是父母,只要踏上社会,那么对不起,优胜劣汰,适者生存,你必须面对,并且你面对的都是高手,是多个依依东望的诸葛亮,你要脱颖而出除了变的更优秀没有出路! 那么你打算怎么做呢?
MachineLP
2022-05-09
2640
机器学习-9:MachineLN之数据归一化
有时候很羡慕一些人,从开始的无到有,譬如一些人平常工资三四千,但是由于很长时间的积累和习惯,他们的睡后收入是上班工资的四倍甚至五倍,但是我感觉他们可以,我也一定可以,所以这半年我就拿出更多的时间睡觉,但是我这半年的睡后收入可能只在五千左右;难道我做错了嘛?那么我就从每天的睡觉十个小时缩减到六个小时试试吧,测试一下睡眠时间是不是和睡后收入成反比的(测试结果明年公布),真是奇怪哈,不应该睡的越久睡后收入越多嘛!!!(哈哈哈,真实幽默哈,但是不一定有人欣赏你哈)
MachineLP
2022-05-09
1940
机器学习-8:DeepLN之BN
又到了每天写东西的时间了,这时候最兴奋,这种兴奋可以延续到后半夜,两点甚至三点;以前写博客都是杂乱无章的,现在写公众号决定按照一个框架,按照一个系列来写;
MachineLP
2022-05-09
2850
机器学习-7:MachineLN之激活函数
很长一段时间都在想,有些问题不去弄明白为什么,遇到瓶颈就傻逼了,一个bug整你一个月,原来只是一个细节问题,就好如:你不知道从哪里来? 又怎么知道往哪里去? 现在遗留的小问题,将来都会是大问题!
MachineLP
2022-05-09
2660
机器学习-6:DeepLN之CNN源码
可能一直关注我更新文章的童鞋,可能看出我的布局,基本是先搭一个框架然后挖坑去填,这可能是我做事情一个优点,当接触到新事物总是能快速建立一个框架,然后去慢慢填,可能刚开始建立的框架是错的,但是没关系,后面随着认知的加深慢慢去改,这可能与我数学比较好有点关系(又开始了...对你无语!!!),跟着清华宁向东老师学习管理学半年,感觉在宁老师上课方式跟我学习知识有点相似(当然应该是我跟宁老师相似),框架搭好挖坑去填,然后多问为什么?另外我也一直反对老师上课用ppt,为什么不用板书,由以前的事半功倍,变成现在事倍功半,反而让学生课后要花更多时间去自己琢磨学习,爱学习的还好,就像我这种不爱学习的简直是大坑。清华老校长梅贻琦先生的话:大学者,非有大楼之谓也,而有大师之谓也。
MachineLP
2022-05-09
3110
点击加载更多
社区活动
腾讯技术创作狂欢月
“码”上创作 21 天,分 10000 元奖品池!
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档