在前面,我们聊到了logistic回归和cox回归,详见:
预测模型篇1:logistic回归;
预测建模篇2:关于COX列线图的绘制。
模型验证谈到了是3:7比例划分,但是,有时候样本量不足,做出来的模型不尽完美,且病例数利用度不高,略显不足。今天,我们用R语言来看看K折验证法,能够最大程度的利用数据,帮我们解决科研难题!
K折交叉验证(K-Fold Cross Validation)
把数据集分成K份,每个子集互不相交且大小相同,依次从K份中选出1份作为验证集,其余K-1份作为训练集,这样进行K次单独的模型训练和验证,最后将K次验证结果取平均值,作为此模型的验证误差。当K=m时,就变为留一法。可见留一法是K折交叉验证的特例。
留一法(Leave One Out Cross Validation,LOOCV)
假设数据集一共有m个样本,依次从数据集中选出1个样本作为验证集,其余m-1个样本作为训练集,这样进行m次单独的模型训练和验证,最后将m次验证结果取平均值,作为此模型的验证误差。
之后我们对traini数据集进行各种统计就好啦,本期分享此结束~
— THE END —
领取专属 10元无门槛券
私享最新 技术干货