首页
学习
活动
专区
工具
TVP
发布

XSYMamba

专栏成员
33
文章
75496
阅读量
14
订阅数
SVM中拉格朗日乘子法和KKT条件(醍醐灌顶)
前言:在svm模型中,要用到拉格朗日乘子法,对偶条件和KKT条件,偶然看到相关的专业解释,忍不住想总结收藏起来,很透彻,醍醐灌顶。
用户5745385
2019-07-04
2.7K0
Numpy np.array 相关常用操作学习笔记
标准Python的列表(list)中,元素本质是对象。如:L = [1, 2, 3],需要3个指针和三个整数对象,对于数值运算比较浪费内存和CPU。因此,Numpy提供了ndarray(N-dimensional array object)对象:存储单一数据类型的多维数组。
用户5745385
2019-07-04
1.4K0
reshape()中的“-1”总结
也就是说,先前我们不知道z的shape属性是多少,但是想让z变成只有一列,行数不知道多少,通过`z.reshape(-1,1)`,Numpy自动计算出有12行,新的数组shape属性为(16, 1),与原来的(4, 4)配套。
用户5745385
2019-07-04
1.3K0
归纳决策树ID3(信息熵的计算和计算原理写的很清楚)
先上问题吧,我们统计了14天的气象数据(指标包括outlook,temperature,humidity,windy),并已知这些天气是否打球(play)。如果给出新一天的气象指标数据:sunny,cool,high,TRUE,判断一下会不会去打球。
用户5745385
2019-07-04
2.3K0
LabelEncoder(标签编码)与One—Hot(独热编码)
在做Kaggle项目的时候,碰到的问题,通常拿到一个比赛项目,将特征分为数字型特征和文字性特征,分别进行处理,而对于文字型特征如何处理,这时就需要用LabelEncoder(标签编码)和One—Hot(独热编码)将其转换为相应的数字型特征,再进行相应的处理。 首先了解机器学习中的特征类别:连续型特征和离散型特征
用户5745385
2019-07-04
9.5K0
KNN(k-nearest neighbor的缩写)原理及使用
如果一个实例在特征空间中的K个最相似(即特征空间中最近邻)的实例中的大多数属于某一个类别,则该实例也属于这个类别。所选择的邻居都是已经正确分类的实例
用户5745385
2019-07-04
8220
分类模型的评价指标(三)
假设我现在有一个二分类任务,是分析100封邮件是否是垃圾邮件,其中不是垃圾邮件有65封,是垃圾邮件有35封.模型最终给邮件的结论只有两个:是垃圾邮件与 不是垃圾邮件.
用户5745385
2019-07-04
8602
模型评估1(误差、偏差、方差)
1、方差:是模型每一次输出结果与模型输出期望之间的误差,即模型的稳定性。描述数据离散程度,数据波动性,会影响模型的预测结果。
用户5745385
2019-07-04
1.6K0
Python如何处理大文件(知识整理)
数据量非常大时,比如一份银行一个月的流水账单,可能有高达几千万的record。对于一般性能的计算机,有或者是读入到特殊的数据结构中,内存的存储可能就非常吃力了。考虑到我们使用数据的实际情况,并不需要将所有的数据提取出内存。当然读入数据库是件比较明智的做法。若不用数据库呢?可将大文件拆分成小块按块读入后,这样可减少内存的存储与计算资源
用户5745385
2019-07-04
1.4K0
One_Hot总结
pandas.get_dummies()时,发现其实它OneHotEncoder封装
用户5745385
2019-07-03
6460
线性回归---(最小二乘)
最小二乘法(又称最小平方法)是一种数学优化技术。误差的平它通过最小化方和寻找数据的最佳函数匹配。利用最小二乘法可以简便地求得未知的数据,并使得这些求得的数据与实际数据之间误差的平方和为最小。最小二乘法还可用于曲线拟合。其他一些优化问题也可通过最小化能量或最大化熵用最小二乘法来表达。
用户5745385
2019-07-03
1.3K0
没有更多了
社区活动
【纪录片】中国数据库前世今生
穿越半个世纪,探寻中国数据库50年的发展历程
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档