腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
首页
学习
活动
专区
工具
TVP
最新优惠活动
返回腾讯云官网
自学笔记
自己学习人工智能的一些笔记
专栏成员
举报
79
文章
57249
阅读量
17
订阅数
订阅专栏
申请加入专栏
全部文章(79)
其他(26)
编程算法(19)
神经网络(16)
深度学习(9)
机器学习(8)
人工智能(5)
数据结构(5)
数据库(4)
二叉树(4)
java(3)
数据处理(3)
sql(2)
linux(2)
对象存储(1)
python(1)
android(1)
云数据库 SQL Server(1)
git(1)
github(1)
maven(1)
spring(1)
访问管理(1)
大数据处理套件 TBDS(1)
渲染(1)
游戏(1)
开源(1)
缓存(1)
卷积神经网络(1)
监督学习(1)
推荐系统(1)
决策树(1)
线性回归(1)
aop(1)
kernel(1)
gradle(1)
数据分析(1)
特征工程(1)
function(1)
optimization(1)
set(1)
svm(1)
time(1)
搜索文章
搜索
搜索
关闭
CS231 Computer vision
机器学习
神经网络
深度学习
人工智能
课程第一章啥也没讲,第二章开始。以图片分类为主题,逐步引出KNN,线性分类等算法。图片数据使用CIFAR-10的数据,计算机扫描图片只能看到一个个像素点,如果是彩色图片,那就是一个三维图片矩阵,如果是黑白图片那就是二维。
西红柿炒鸡蛋
2020-04-30
436
0
Machine Learning in Action:Decision Tree
决策树
机器学习
神经网络
深度学习
人工智能
决策树这个算法比较接地气,就算你根本不懂机器学习算法也可以很好的理解决策树,决策树之前的算法就已经解释过了。主要思想就算通过条件进行分类即可。决策树主要的优点就在于数据形式非常好理解。decision tree的算法可以读取数据集合,可以得到数据中所隐含的知识信息,因此决策树可以使用不熟悉的数据集合,并从中提取一系列规则。优点很明显,计算复杂度不高,输出结果也很容易理解,就算是中间有缺失值也影响不大,特征不相关也可以处理。由于决策树是按照条件划分,如果划分的条件过多了,可能导致overfitting。 首先要做的就是要找到数据的决定性特征是什么,把它作为划分的依据。当划分完成,如果当前的叶子都是同一个类别,那么当前叶子的划分就完成了。
西红柿炒鸡蛋
2019-03-19
384
0
Factorization Machine
机器学习
神经网络
深度学习
人工智能
logistics regression algorithm model中使用的是特征的线性组合,最终得到的分割平面属于线性模型,但是线性模型就只能处理线性问题,所以对于非线性的问题就有点难处理了,对于这些复杂问题一般是两种解决方法①对数据本身进行处理,比如进行特征转换,和函数高维扩展等等。②对算法模型本身进行扩展,比如对linear regression加上正则化惩罚项进行改进得到lasso regression或者是ridge regression。 Factorization Machine就是一种对logistics regression的一种改进,线性的部分权值组合是不变的,在后面增加了非线性的交叉项。 target function:
西红柿炒鸡蛋
2019-02-28
592
0
linear regression and logistic regression
机器学习
线性回归
通过工资和年龄预测额度,这样就可以做拟合来预测了。有两个特征,那么就要求有两个参数了,设置
西红柿炒鸡蛋
2019-01-23
507
0
Unity基本操作以及Roll A Ball
机器学习
第一个手部图标,可以拖动物体,对准物体点击就可以拖动。第二个就是指针图标,可以选择物体的移动方向。可以选择x,y,z三个方向进行移动。第三个就是旋转图标,可以对物体进行任意方向的旋转。第四个可以改变物体的大小。 这个时候按住鼠标右键可以对场景查看,全景查看。按下w,s可以对镜头远近调节,a,d可以左右位移,如果仅仅是鼠标左右移动那就仅仅只能旋转而已。
西红柿炒鸡蛋
2019-01-23
1K
0
基于SVM的思想做CIFAR-10图像分类
机器学习
神经网络
深度学习
人工智能
回顾一下之前的SVM,找到一个间隔最大的函数,使得正负样本离该函数是最远的,是否最远不是看哪个点离函数最远,而是找到一个离函数最近的点看他是不是和该分割函数离的最近的。
西红柿炒鸡蛋
2019-01-23
654
0
Finale
kernel
机器学习
神经网络
深度学习
人工智能
这几篇博客介绍的第一个feature transform方法就是kernel。kernel先出现是在SVM里面,原因就是为了减少 內积计算的复杂度,把特征转换和內积计算结合到一起。特征转换其实也是一种特征的提取。介绍过的kernel:polynomial kernel,Gaussion kernel,stump kernel。另外,不同的kernel相加或者是相乘做uniform或者是combination可以提取更加复杂的特征,比如Network。但是使用kernel是需要满足Mercer条件的,对称半正定。不同的kernel可以搭配不同的模型,SVM,SVR,probability SVM,或者是kernel ridge regression等等。之前学过的PCA,kmean这些算法都包括了內积的计算,所以它们各自也有对应的kernel函数,比如之前使用的Kmean是用的高斯距离,那么kernel就是Gaussion kernel了。
西红柿炒鸡蛋
2019-01-23
434
0
Random Forest
编程算法
机器学习
随机森林还是没有脱离聚合模型这块,之前学过两个aggregation model,bagging和decision tree,一个是边learning边uniform。首先是boostrap方式得到数据D1,之后训练做平均;另一个也是边learning但是做的是condition,直接用数据D做conditional切分。
西红柿炒鸡蛋
2019-01-23
647
0
没有更多了
社区活动
【纪录片】中国数据库前世今生
穿越半个世纪,探寻中国数据库50年的发展历程
立即查看
Python精品学习库
代码在线跑,知识轻松学
立即查看
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
立即体验
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
立即查看
领券
问题归档
专栏文章
快讯文章归档
关键词归档
开发者手册归档
开发者手册 Section 归档