首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    学界 | 谷歌大脑提出对抗正则化方法,显著改善自编码器的泛化和表征学习能力

    无监督学习的目标之一是不依靠显式的标注得到数据集的内在结构。自编码器是一种用于达成该目标的常见结构,它学习如何将数据点映射到隐编码中——利用它以最小的信息损失来恢复数据。通常情况下,隐编码的维度小于数据的维度,这表明自编码器可以实施某种降维。对于某些特定的结构,隐编码可以揭示数据集产生差异的关键因素,这使得这些模型能够用于表征学习 [7,15]。过去,它们还被用于预训练其它网络:先在无标注的数据上训练它们,之后将它们叠加起来初始化深层网络 [1,41]。最近的研究表明,通过对隐藏空间施加先验能使自编码器用于概率建模或生成模型建模 [18,25,31]。

    02

    J. Med. Chem. | 生物属性中对分子生成模型进行基准测试

    今天为大家介绍的是来自Liwei Liu,Tingjun Hou和Yu Kang团队的一篇论文。基于深度学习的分子生成模型因其生成具有新颖结构和理想理化属性的分子的能力而受到越来越多的关注。然而,这些模型的评估,特别是在生物学背景下的评估,仍然不足。为了解决现有度量标准的局限性并模拟实际应用场景,作者构建了RediscMol基准测试,它包括从5个激酶和3个GPCR数据集中提取的活性分子。作者引入了一组重新发现和相似性相关的度量标准,以评估8个代表性的生成模型的性能。基于RediscMol基准测试的发现与之前的评估结果不同。CharRNN、VAE和Reinvent在重现已知活性分子方面表现出更强的能力,而RNNAttn、TransVAE和GraphAF尽管在常用的分布学习度量标准上表现突出,但在这方面存在困难。作者的评估框架可能为在现实世界药物设计场景中推进生成模型提供宝贵的指导。

    01
    领券