在机器学习领域,NFL的意义在于告诉机器学习从业者:”假设所有数据的分布可能性相等,当我们用任一分类做法来预测未观测到的新数据时,对于误分的预期是相同的。”...这种观点也是NFL的另一种表述。
周志华老师在《机器学习》一书中也简明扼要的总结:“NFL定理最重要的寓意,是让我们清楚的认识到,脱离具体问题,空泛的谈‘什么学习算法更好’毫无意义。”
2....我们有两种假设:
h1: 我们是从{0,2,4,6,8,...,98}中抽取的,即从偶数中抽取
h2: 我们是从{2n}中抽取的
根据上文给出的公式进行计算,我们发现Pr(D|h1)远大于Pr(D|h2...这个时候我们就应选择概率更高的那个。
从奥卡姆剃刀角度思考的话,h1:{2n}在0~99中只有5个满足要求的元素,而h2:{0,2,4,6,8,...,98}却有50个满足要求的元素。...从理论上说,集成学习往往可以同时有效的降低bias和variance,或者在控制一方的前提下降低另一方。此处按下不表。
4.