首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
您找到你想要的搜索结果了吗?
是的
没有找到

J. Chem. Inf. Model. | 提高化合物-蛋白质相互作用预测的方法:通过使用增加的负样本进行自我训练

今天为大家介绍的是来自Yasushi Okuno团队的一篇论文。识别化合物-蛋白质相互作用(CPI)对于药物发现至关重要。由于实验验证CPI通常耗时且昂贵,因此期望计算方法能够促进这一过程。可用的CPI数据库迅速增长加速了许多机器学习方法用于CPI预测的发展。然而,它们的性能,特别是它们在外部数据上的泛化能力,往往受到数据不平衡的影响,这归因于缺乏经验证的非活性(负面)样本。在这项研究中,作者开发了一种自我训练方法,用于增加可信和信息丰富的负样本,以改善由数据不平衡导致的模型性能下降问题。构建的模型表现出比使用其他传统方法解决数据不平衡时更高的性能,且在外部数据集上改进明显。

04

机器学习的跨学科应用——训练测试篇

在机器学习问题中,要求模型执行两个相互矛盾的任务:1. 最小化训练数据集上的预测误差 2. 最大化其对看不见的数据进行泛化的能力。根据模型,损失函数和评估方法的测试方式不同,模型可能最终会记住训练数据集(不良结果),而不是学数据的充分表示(预期结果)。这称为过拟合,通常会导致模型的泛化性能下降。过拟合可能会在各种模型上发生,尽管通常会在较复杂的模型上,例如随机森林,支持向量机和神经网络。 在模型训练期间,请在训练和验证集上观察训练指标,例如您的损失输出和r得分。比如,在训练神经网络时,您可以使用学习曲线在训练过程中跟踪每个周期的验证错误。理想情况下,随着模型的训练,验证和训练误差将会减少,您的训练误差将接近零,但这并不是我们关心的指标!您应该更密切注意验证集的错误。当您的验证错误再次增加而训练错误继续减少时,您可能会记住训练数据,从而过度拟合了数据。 过拟合可能会对模型的泛化能力产生不利的影响。也就是说,为新的和看不见的数据返回不合理的输出预测,从而使测试数据集的效果较差。如果您发现模型非常容易拟合训练数据,请考虑降低模型的复杂度或者使用正则化。

01
领券