首页
学习
活动
专区
工具
TVP
发布

自学笔记

自己学习人工智能的一些笔记
专栏成员
79
文章
57182
阅读量
17
订阅数
DeepProbLog: Neural Probabilistic Logic Programming
本论文介绍的DeepProlog是一种概率逻辑编程语言,通过神经谓词和深度学习结合起来。我们将展示现有的推理和正在学习的技术将如何适应新的语言。我们的实验表明,DeepProblog支持符号和子符号的表示和推理,程序的归结,概率逻辑规划,从样例中学习。据我们所知,这项工作首先提出了一个能把通用神经网络和表达概率逻辑建模和推理以某种方式结合的框架,从而有更强的表达能力和两种框架的优点,并且可以基于样例进行端到端的训练。
西红柿炒鸡蛋
2020-06-18
1.8K0
CS231 Computer vision
课程第一章啥也没讲,第二章开始。以图片分类为主题,逐步引出KNN,线性分类等算法。图片数据使用CIFAR-10的数据,计算机扫描图片只能看到一个个像素点,如果是彩色图片,那就是一个三维图片矩阵,如果是黑白图片那就是二维。
西红柿炒鸡蛋
2020-04-30
4360
Machine Learning in Action:Decision Tree
决策树这个算法比较接地气,就算你根本不懂机器学习算法也可以很好的理解决策树,决策树之前的算法就已经解释过了。主要思想就算通过条件进行分类即可。决策树主要的优点就在于数据形式非常好理解。decision tree的算法可以读取数据集合,可以得到数据中所隐含的知识信息,因此决策树可以使用不熟悉的数据集合,并从中提取一系列规则。优点很明显,计算复杂度不高,输出结果也很容易理解,就算是中间有缺失值也影响不大,特征不相关也可以处理。由于决策树是按照条件划分,如果划分的条件过多了,可能导致overfitting。 首先要做的就是要找到数据的决定性特征是什么,把它作为划分的依据。当划分完成,如果当前的叶子都是同一个类别,那么当前叶子的划分就完成了。
西红柿炒鸡蛋
2019-03-19
3830
Factorization Machine
logistics regression algorithm model中使用的是特征的线性组合,最终得到的分割平面属于线性模型,但是线性模型就只能处理线性问题,所以对于非线性的问题就有点难处理了,对于这些复杂问题一般是两种解决方法①对数据本身进行处理,比如进行特征转换,和函数高维扩展等等。②对算法模型本身进行扩展,比如对linear regression加上正则化惩罚项进行改进得到lasso regression或者是ridge regression。 Factorization Machine就是一种对logistics regression的一种改进,线性的部分权值组合是不变的,在后面增加了非线性的交叉项。 target function:
西红柿炒鸡蛋
2019-02-28
5920
Data Structure_树
对于有一类问题,时常关注的是一个区间或者是一个线段,那么就可以使用线段树来解决。比较经典的问题,就是区间染色问题:有一面墙,长度为n,每次选择一段墙来染色,一开始4-6绘制成黄色,然后1-10绘制蓝色,2-7绘制红色,若干次绘色之后能看见多少种颜色,或者是在区间「i,j」区间里面可以看到多少种颜色。所以主要有两个操作,染色操作和查询操作。使用数组操作其实是可以的,染色就只需要把对应下标的内容,修改就好了;查找只需要遍历,这样复杂度就都是
西红柿炒鸡蛋
2019-01-23
4740
基于SVM的思想做CIFAR-10图像分类
回顾一下之前的SVM,找到一个间隔最大的函数,使得正负样本离该函数是最远的,是否最远不是看哪个点离函数最远,而是找到一个离函数最近的点看他是不是和该分割函数离的最近的。
西红柿炒鸡蛋
2019-01-23
6540
Aggregation Model : Blending , Bagging , Boosting
比如现在有一支股票,你不知道是跌还是涨。你有T个friends,每一个friend对应的建议分别是g1,g2,g3...gn,那么你应该怎么选择建议?
西红柿炒鸡蛋
2019-01-23
4290
Finale
这几篇博客介绍的第一个feature transform方法就是kernel。kernel先出现是在SVM里面,原因就是为了减少 內积计算的复杂度,把特征转换和內积计算结合到一起。特征转换其实也是一种特征的提取。介绍过的kernel:polynomial kernel,Gaussion kernel,stump kernel。另外,不同的kernel相加或者是相乘做uniform或者是combination可以提取更加复杂的特征,比如Network。但是使用kernel是需要满足Mercer条件的,对称半正定。不同的kernel可以搭配不同的模型,SVM,SVR,probability SVM,或者是kernel ridge regression等等。之前学过的PCA,kmean这些算法都包括了內积的计算,所以它们各自也有对应的kernel函数,比如之前使用的Kmean是用的高斯距离,那么kernel就是Gaussion kernel了。
西红柿炒鸡蛋
2019-01-23
4340
Neural Network
重新回顾一下一开始学的PLA,preceptron learning Algorithm。PLA适用于二维及高维的线性可分的情况,如果是非线性可分的数据,如果使用PLA可能会无限循环。问题的答案只有同意或不同意:
西红柿炒鸡蛋
2019-01-23
5020
没有更多了
社区活动
【纪录片】中国数据库前世今生
穿越半个世纪,探寻中国数据库50年的发展历程
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档