前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >ML基石_4_FeasibilityOfLearning

ML基石_4_FeasibilityOfLearning

作者头像
用户1147754
发布2019-05-27 08:44:23
2600
发布2019-05-27 08:44:23
举报
文章被收录于专栏:YoungGyYoungGy

learning is impossible

no free lunch

在对f不知情的情况下,有时候对训练集外的数据,很难说机器学到了什么。

有些情况下没有现成的pattern并不能很好的学习。

这里写图片描述
这里写图片描述
这里写图片描述
这里写图片描述

probability to the rescue

用部分去推断总体。

这里写图片描述
这里写图片描述

部分说明了整体什么信息吗 大部分情况下部分反映了总体的信息

这里写图片描述
这里写图片描述

数学上的发生几率保证 PAC: probably approximately correct

这里写图片描述
这里写图片描述

connection to learning

假设有一个固定的h在手上。 由部分推断总体g犯错的几率。

这里写图片描述
这里写图片描述

公式的保证

这里写图片描述
这里写图片描述

h(H演算法集中的一小个)可以代表总体,那么g是否可以呢?

这里写图片描述
这里写图片描述

connection to real learning

如果选择的假设在训练集上表现足够好,那么要选么?

和取样有关。 选择多了,会恶化情况。

这里写图片描述
这里写图片描述

一个h,不好的几率很小 多个h,不好的几率很大

这里写图片描述
这里写图片描述

只有像D1126才是好的资料

这里写图片描述
这里写图片描述

M finite,N large enough,那么学习是可能的。 那么,对于PCA,M是无限的,那么怎么办啊?

总结

这里写图片描述
这里写图片描述
本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2015年09月15日,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • learning is impossible
  • probability to the rescue
  • connection to learning
  • connection to real learning
  • 总结
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档