前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
社区首页 >专栏 >Nat. Mach. Intell. | 深度神经网络中的捷径学习

Nat. Mach. Intell. | 深度神经网络中的捷径学习

作者头像
DrugAI
修改于 2021-02-02 03:27:26
修改于 2021-02-02 03:27:26
1K0
举报
文章被收录于专栏:DrugAIDrugAI

今天给大家介绍来自德国蒂宾根大学的Robert Geirhos和加拿大多伦多大学的Claudio Michaelis等人发表在Nature Machine Intelligence的文章“Shortcut learning in deep neural networks”。文章认为有很多种深度学习(DL)案例的失败可以看作是同一个问题——捷径学习(Shortcut Learning)的不同表现。捷径学习是在标准基准上性能良好但是在更具挑战性的测试条件上表现较差的决策规则(decision rule)。捷径学习可能是生物和机器学习系统的一个共同特征。基于此,作者提出了一些关于模型解释和基准测试的建议,并且介绍了机器学习(ML)从实验到实际应用提高鲁棒性(robustness)和可移植性(transferability)的最新进展。

1

介绍

深度学习领域正在蓬勃发展,据报道,深度神经网络(Deep Neural Networks,DNNs)以越来越快的速度取得了人类级别的对象分类性能,对我们的生活和社会产生了巨大的影响。

但是,深度学习仍处于发展的开端,科研人员缺乏对其基本原理和局限性的深入了解。在深度学习应用程序的社会影响日益增长的现在,这成为了迫切需要解决的问题。如果我们信赖自动驾驶算法驾驶汽车,如果我们使用神经网络在工作中进行评估,如果我们癌症筛查需要深度学习的帮助,那么我们必须明确——深度学习是怎么工作的?什么时候会犯错误?以及犯错的原因?

图1.深度学习失败案例

通过对深度学习局限性的观察,可以找到它大量的失败案例(图1)。一方面是超人的性能,一方面是惊人的失败,这两者之间的差异如何调节?根据观察可以发现,许多失败案例并非个例,而是与DNNs使用捷径策略相互关联。DNNs经常通过走捷径而不是学习预期方案(intended solution)来解决问题,从而导致泛化(generalisation)的缺乏,这种现象可以在很多实际应用中观察到。所以虽然捷径策略表面上是成功的,但情况稍有不同就会失败。捷径学习并不是一种新现象,它有很多不同的术语名称,例如“协变移位学习 ”、“反因果学习”、“数据集偏差”、“坦克传奇 ”和“聪明汉斯效果”等。在很多特定的深度学习领域都出现了捷径学习的问题,如计算机视觉(Computer Vision)、自然语言处理(Natural Language Processing)、基于 Agent(强化)学习(Agent-based(Reinforcement) Learning)和公平性和算法决策(Fairness & algorithmic decision- making)等。

本文针对这些可以统称为捷径的现象提出一个统一的看法,并阐述在理论和实践中为解决这些问题采取的方法。

2

主体内容

2.1定义捷径:决策规则的分类法

人工神经网络中的捷径学习是怎么样的呢?作者通过一个简单的分类问题(区分星星和月亮)进行举例(图2)。预期方案是基于对象形状进行分类,实际模型学习的捷径方案是基于对象位置进行分类,因为神经网络不能从训练数据中判断出预期方案和捷径方案的差异。

图2.神经网络中捷径学习例子

一般来说,任何神经网络都会执行一个定义输入和输出之间关系的决策规则。为了将捷径与其他决策规则区分开,作者引入一种决策规则的分类方法(图3)其中包含:

  1. 所有可能的方案(含无法处理数据的方案);
  2. 可解决训练集的方案(含过拟合);
  3. 可解决i.i.d.测试的方案(包括捷径学习)(i.i.d.(independent and identically distributed):独立同分布数据集;o.o.d.(out-of-distribution):分布外数据集。);捷径学习在训练集和i.i.d.测试集上性能良好(标准基准排行榜的分高),但是在o.o.d.泛化测试中性能糟糕。
  4. 期望方案:在i.i.d.测试集和o.o.d.测试集上都可以运行。

图3:决策规则分类法(左),不同类决策规则在各种数据集的性能情况(右)

2.2 捷径的起源

图4

捷径从哪里来?

作者认为,需要从两方面考虑这个问题。一是数据中存在的捷径机会(或捷径特征);二是如何组合不同的决策规则的特征。它们共同决定了模型的泛化方式。

训练数据集中,对象和背景或上下文之间的系统关系很容易创造出捷径机会,就像DNNs可以识别出草地上的牛,却无法识别海边的牛(图4 a);郁郁葱葱的草地会被DNNs误判为一群放牧的羊群(图1)。捷径机会是无处不在的,当数据集的规模简单地按一定数量级放大时,捷径机会就会出现。

除此之外,DNNs十分依赖纹理和其他局部结构进行对象分类,而忽略了对象全局形状。如DNNs认为模型训练时学习纹理特征比学习全局形状特征更有效,但实际测试时模型会将猫的图像归类为大象(图4 b),这就是模型中的捷径学习。判别学习(DIscriminative learning)可以选择解决给定数据集测试的可靠特征,但是它并不知道实际的测试情况,不知道如何将用于区分的特征与定义对象的其他特征相结合。

图5:图像分类

既然了解了捷径的来源,那么如何发现它们呢?

实验证明,捷径学习可以通过泛化测试发现。在泛化测试中,DNNs将图4 c错误判断为吉他,该实验发现DNNs似乎学会了检测某些特征而代替了吉他,所以在i.i.d.测试集性能良好的策略在o.o.d.数据上性能糟糕。这说明人类预期方案和模型实际学习的方案之间存在这差异,泛化失败既不是学习的失败也不是泛化的失败,而是没有按预期方向泛化的失败。

2.3诊断理解快捷学习

目前捷径学习有很多元素已经被发现并且取得了实质性进展,但是开发者都是在没有一个普遍认可的策略下来探索方法的。所以作者介绍了诊断和分析捷径学习的三个可行步骤。

1)仔细分析结果

目前机器学习领域最流行的基准测试仍然是i.i.d.测试,这使人们不再需要验证测试性能与人们真正该兴趣的基础能力(underlying ability)之间是否有关系。如原本计划用来衡量模型“识别对象”能力的ImageNet数据集,实际发现DNNs似乎主要依赖“对纹理块的计数”来通过测试。因此可以得出,模型简单通过数据集测试和模型实现了人们期望的基础能力之间是不一样的。数据集只有能很好地代表人类真正感兴趣的功能时才是有用的数据集。

动物通常以一种意想不到的方式解决一个实验范式,而未使用人们真正感兴趣的能力,从而欺骗了实验者。摩根法则(Morgan's Canon)提到,如果可以用较低的心理过程来解释某种行为,那么绝将其归因于高级的心理过程,即法则否认了“人类思维模式和处理问题的方法很容易被非人类利用“的观点。但在算法层面,通常有一种默认的假设(same strategy assumption),如果模型有类人的表现,那么它采取的策略也是类人的。同理,在深度学习中,DNN单元不同于生物神经单元,但是如果DNNs成功识别了对象,那么很自然地假设它们像人类一样使用物体形状来识别。

因此我们需要区分模型在数据集的性能表现与实际获取的能力之间的关系,在将“物体识别”或“语言理解”等高级能力赋予模型前要非常谨慎,因为通常有一个更简单的解释:“永远不要将能用捷径学习充分解释的结果归因于高级能力。”

2)面向o.o.d.泛化测试以检测捷径学习

通过i.i.d测试集上的验证性能来衡量模型性能是大部分机器学习基准测试的核心。但是在现实世界中,i.i.d.假设很少是合理的。如果模型性能仅在i.i.d.测试数据上进行评估,那么就无法发现模型是否真的采用了预期方案,因为模型利用捷径也会在标准指标上产生虚假的好结果。

因此,作者希望能够确定一个足够简单有效的o.o.d.测试来取代i.i.d.测试,成为未来机器学习模型基准测试的新标准方法。作者认为优秀的o.o.d.测试至少要满足以下三个条件:

  1. 有一个明确的分布变化。
  2. 有一个明确定义的预期解决方案。
  3. 是一个大多数现有的模型都认为具有挑战性的测试集。 。

目前表现优秀的o.o.d.基准有Adversarial attacks、ARCT with removed shortcuts、Cue conflict stimuli、ImageNet-A、ImageNet-C、ObjectNet、PACS和Shift-MNIST / biased CelebA / unfair dSprites。

3)为什么学习捷径

对于DNNs来说,利用捷径比学习预期的解决方案要容易得多。但是,是什么因素决定一个解决方案是否容易学习?对于机器来说,解决方案是否容易学习不仅仅取决于数据,而且取决于机器学习算法的四个组成部分:架构(architecture)、训练数据(training data)、损失函数(loss function)和优化(optimisation),他们被称为模型的归纳偏向(inductive bias)。归纳偏向会影响某些解决方案比其他方案更容易学习,从而使模型决定学习捷径方案而不是预期方案。

2.4当前几种有前途的解决捷径的方法

机器学习普遍存在缺乏分布外泛化的问题。因此,机器学习研究的很大一部分都与克服捷径学习有关。作者简单列举了几种前景很好的解决方法,每一种都提供了超越捷径学习的独特视角,例如特定领域的先验知识(Domain-specific prior knowledge)、对抗样本和鲁棒性(Adversarial examples and robustness)、领域自适应,领域泛化和领域随机化(Domain adaptation, -generalisation and -randomisation)、公平性(Fairness)、元学习(Meta-learning)和生成模型和disentanglement(Generative modelling and disentanglement)。

3

总结

虽然深度学习在过去几年里取得了巨大的进步,但仍然在模型如何从数据中学习方案的原理理解和局限性方面落后。如何克服捷径学习的问题不仅与机器学习的当前应用领域相关,未来可能还会与其他学科交叉融合。因此,为了深入理解捷径学习,从而减轻它的影响,作者提出了四条建议:

  1. 捷径学习无处不在,让不同领域通过它联系起来
  2. 仔细分析结果
  3. 使用o.o.d.测试集进行泛化
  4. 了解解决方案容易学习的原因,弄清归纳偏向四个因素的影响以及彼此之间的相互作用。

捷径学习是实现公平、健壮、可部署和值得信赖的机器学习的主要障碍之一。虽然完全克服捷径学习可能是无法实现的,但任何减轻捷径学习影响的进展都将使模型所学解决方案和预期解决方案取得更好的一致性。这就保证了机器即使是在远离训练经验的情况下也能表现得可靠。此外,机器决策将因此变得更加透明,能够更容易地检测和消除偏差。目前,关于捷径学习的研究仍然在不同社区中开展作者希望能推进讨论,建立替代当前i.i.d测试的o.o.d新标准范式。

代码

https://github.com/rgeirhos/shortcut-perspective

参考资料

Geirhos, R., Jacobsen, JH., Michaelis, C. et al. Shortcut learning in deep neural networks. Nat Mach Intell 2, 665–673 (2020).

https://doi.org/10.1038/s42256-020-00257-z

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2020-12-09,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 DrugAI 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
神经网络其实和人一样懒惰,喜欢走捷径......
人工智能会很快取代放射科医生吗?最近,研究人员训练了一个深度神经网络对乳腺癌进行分类,其准确度达到了85%。当与其他三种神经网络模型结合使用时,最终的集成方法达到了出色的99%的分类准确度,可以与经过多年训练的放射专家相媲美。
数据派THU
2020/10/26
7410
神经网络其实和人一样懒惰,喜欢走捷径......
深度学习败于“捷径”
这一话题已经有过了无数讨论,大部分讨论都承认当前的深度学习还不是真正的智能,必须转向理解、常识。
AI科技评论
2020/07/28
3600
深度学习败于“捷径”
Nat. Mach. Intell. | 评估基于shapely值的特征归因算法
今天为大家介绍的是来自Su-In Lee研究团队的一篇关于shapely value特征归因的论文。基于Shapley值的特征归因在解释机器学习模型方面非常流行。然而,从理论和计算的角度来看,它们的估计是复杂的。作者将这种复杂性分解为两个主要因素:去除特征信息的方法和可行的估计策略。这两个因素提供了一个自然的视角使得我们可以更好地理解和比较24种不同的算法。
DrugAI
2023/09/19
6770
Nat. Mach. Intell. | 评估基于shapely值的特征归因算法
Nat. Mach. Intell. | 基准数据集的泛化评估不真实?哈佛医学院提出SPECTRA
今天为大家介绍的是来自哈佛医学院的Maha Farhat团队的一篇论文。深度学习在对分子测序数据进行建模方面取得了迅速进展。尽管在基准测试中表现优异,但我们仍不清楚深度学习模型在多大程度上学习到了通用原理,并能推广到此前从未见过的序列。传统上,基准测试在评估模型性能之前,会先基于元数据或序列相似度将输入数据划分为训练集和测试集,以此来检验模型的泛化能力。然而,作者在此指出,由于未充分考虑跨划分重叠(即训练集与测试集之间的相似性)的完整范围,这种做法会对模型的泛化能力产生错误的刻画。为此,作者提出了SPECTRA,这是一种用于模型评估的框架。在给定某个模型和数据集后,SPECTRA会在跨划分重叠度不断降低的条件下绘制模型性能曲线,并将该曲线下面积用作衡量泛化能力的指标。作者在18个测序数据集和表型上使用SPECTRA,并评估了19个最先进的深度学习模型的泛化能力。虽然没有任何模型能在所有任务上始终取得最高性能,但在某些特定任务中,深度学习模型确实可以泛化到此前未见过的序列。SPECTRA的提出推动了我们对基础模型在生物学应用中如何实现泛化的理解。
DrugAI
2025/01/14
870
Nat. Mach. Intell. | 基准数据集的泛化评估不真实?哈佛医学院提出SPECTRA
Nat. Mach. Intell. | 深度化学模型的神经缩放
今天为大家介绍的是来自Nathan C. Frey团队的一篇论文。在数据可用性和计算量方面的大规模扩展,使得深度学习在自然语言处理和计算机视觉等关键应用领域实现了重要突破。越来越多的证据表明,在科学深度学习中,规模可能是一个关键因素,但科学领域中物理先验的重要性使得规模扩展的策略和益处尚不确定。在这里,作者通过改变模型和数据集的大小(跨越多个数量级),研究了大型化学模型中的神经缩放行为,研究对象包括拥有超过十亿参数的模型,这些模型在高达一千万数据点的数据集上进行了预训练。
DrugAI
2024/02/23
1690
Nat. Mach. Intell. | 深度化学模型的神经缩放
Nat. Mach. Intell. | 基于癌症影像生物标志物的基础模型
今天为大家介绍的是来自Hugo J. W. L. Aerts团队的一篇论文。深度学习中的基础模型特指一个在大量数据上训练的单一大型模型,作为各种下游任务的基础。基础模型通常通过自监督学习进行训练,在减少下游应用中训练样本需求方面表现出色。这在医学领域尤为重要,因为大型标记数据集往往很稀缺。
DrugAI
2024/04/28
1540
Nat. Mach. Intell. | 基于癌症影像生物标志物的基础模型
Nat. Mach. Intell. | “数据+知识+AI” 解锁新靶标药物虚拟筛选
精准的评估蛋白质-配体相互作用对药物发现至关重要。然而,开发可靠的评估方法一直是学术界和工业界的长期挑战。近年来,人工智能技术在该领域已经取得了显著进展,以AlphaFold为代表的深度学习方法在蛋白质三维结构,蛋白质-配体复合物结构预测方面表现卓越。但是,在新靶标的药物虚拟筛选场景中,高精度的活性预测评分方法仍然非常匮乏。许多研究表明,深度学习模型倾向学习数据中的分布偏差,对分布内的数据可以给出很好的性能指标。但在实际应用中,尤其面对训练集未见的新靶标和化学多样性空间,却无法展现出良好的泛化效果。
DrugAI
2024/06/18
2980
Nat. Mach. Intell. | “数据+知识+AI” 解锁新靶标药物虚拟筛选
Nat. Mach. Intell. | 通过交互式自然语言对话解释机器学习模型
今天为大家介绍的是来自Dylan Slack团队的一篇论文。人们越来越多地使用机器学习(ML)模型,但模型变得越来越复杂,难以理解。为了理解复杂的模型,研究人员提出了解释模型预测的技术。然而,实际操作中难以使用可解释性方法,因为他们不知道应该选择哪种解释以及如何解释这种解释。在这里,作者通过提出TalkToModel来解决使用可解释性方法的挑战:一个通过自然语言对话解释ML模型的交互式对话系统。
DrugAI
2023/12/04
2420
Nat. Mach. Intell. | 通过交互式自然语言对话解释机器学习模型
Nat. Mach. Intell. | 华科同济医学院剑桥联手推出新冠预测模型!
今天给大家介绍华中科技大学同济医学院及剑桥大学联合发表在Nature Machine Intelligence的一篇文章。文章中作者提出了一个基于XGBoost机器学习的模型,可以提前10天以上预测患者的死亡率,准确率超过90%,从而实现对COVID-19患者的检测、早期干预,并有可能降低死亡率。
DrugAI
2021/02/02
5250
Nat. Mach. Intell. | 华科同济医学院剑桥联手推出新冠预测模型!
Nat. Mach. Intell. | 药物设计中的多任务学习
今天为大家介绍的是来自Gisbert Schneider团队的一篇论文。多任务学习是一种机器学习范式,旨在通过利用多个任务之间的共享信息来增强预测模型的泛化能力。深度神经网络模型在各个领域取得的突破性成就,为化学科学的类似进步带来了希望。在本文中,作者提供了神经型应用于多任务学习计算机辅助药物设计的当前状态和未来潜力的见解。在药物发现的背景下,多任务学习的一个突出应用是进行蛋白质-配体结合亲和力预测。本文介绍了多任务学习的基本原则,并提出了一个框架,用于根据其架构来对多任务学习模型进行分类。
DrugAI
2024/05/13
1660
Nat. Mach. Intell. | 药物设计中的多任务学习
Nat. Mach. Intell. | 利用条件循环神经网络生成特定性质分子
今天给大家介绍瑞士知名药企阿斯利康和伯尔尼大学的 Esben Jannik Bjerrum团队在Nature Machine Intelligence上的一篇论文。该研究提出基于分子SMILES表示的条件循环神经网络,输入目标性质,模型可直接生成具有对应性质的分子。
DrugAI
2021/02/01
6790
Nat. Mach. Intell. | 利用条件循环神经网络生成特定性质分子
Nat. Mach. Intell. | 结构引导的预训练模型
今天为大家介绍的是来自Marinka Zitnik团队的一篇关于模型预训练的论文。语言模型的预训练及其衍生的通用方法已经重新塑造了机器学习研究。然而,在预训练如何提高下游任务性能方面仍存在相当大的不确定性。当在自然语言以外的领域使用语言模型预训练时,这一挑战变得更加突出。在这里,作者通过分析预训练方法如何在每个样本的潜在空间中施加关系结构来研究这个问题,也就是说,预训练方法对样本的预训练特征之间的距离或几何关系施加了什么约束。
DrugAI
2023/09/19
1990
Nat. Mach. Intell. | 结构引导的预训练模型
Nat. Mach. Intell. | 可解释胶囊网络深度学习框架从单细胞RNA测序数据中识别细胞类型
今天给大家介绍由中国科学院大学Lifei Wang等人在《nature machine intelligence》上发表了一篇名为“An interpretable deep-learning architecture of capsule networks for identifying cell-type gene expression programs from single-cell RNA sequencing data”的文章。文中提出了一个使用胶囊网络(称为scCapsNet)的可解释的深度学习体系结构。胶囊结构(代表一组特定对象属性的神经元向量)捕捉层次关系。通过利用竞争性单细胞类型识别,scCapsNet模型能够进行特征选择以识别编码不同亚细胞类型的基因组。将RNA表达特征有效地整合到scCapsNet的参数矩阵中,实现了亚细胞类型识别。
DrugAI
2021/02/02
7610
Nat. Mach. Intell. | 可解释胶囊网络深度学习框架从单细胞RNA测序数据中识别细胞类型
Nat. Mach. Intell.|从局部解释到全局理解的树模型
今天介绍美国华盛顿大学保罗·艾伦计算机科学与工程学院的Su-In Lee团队在nature mechine intelligence 2020的论文,该论文提出了一种基于博弈论沙普利值的TreeExplainer方法,用于从局部到全局的树模型解释性研究。
DrugAI
2021/01/29
5840
Nat. Mach. Intell.|从局部解释到全局理解的树模型
Nat. Mach. Intell. | 基于对比学习的方法可快速映射到数百万规模的多模态单细胞图谱
本文介绍由华大基因的汪建和牟峰共同通讯发表在 Nature Machine Intelligence 的研究成果:单细胞数据集规模的不断扩大,对解决扩展的规模、扩展的模态和批次效应等问题带来了计算挑战。最近提出的基因深度学习的方法,是通过推导非线性细胞嵌入来解决这些问题。对此,作者提出了基于对比学习的方法Concerto,它利用自监督的蒸馏框架来模拟多模态单细胞图谱。只需将每个细胞与其他细胞区分开来,Concerto 就可以适用于各种下游任务,如细胞类型分类、数据集成、参考映射。与当前的主流软件包不同,Concerto 的对比设置支持对所有基因进行操作以保留生物变异,它还可以灵活地推广到多组学中以获得统一的细胞表示。在模拟数据集和真实数据集上进行基准测试,实验结果表明,Concerto 的性能远优于其他方法。并且,Concerto 概括了不同的免疫反应,还发现了 COVID-19 患者的疾病特异性细胞状态。总体而言,Concerto 将通过迭代构建单细胞参考图谱并快速映射新的数据集来传输相关的细胞注释,从而促进生物医学研究。
DrugAI
2022/11/28
6360
Nat. Mach. Intell. | 基于对比学习的方法可快速映射到数百万规模的多模态单细胞图谱
Nat. Mach. Intell. | 化学反应预训练和条件分子生成之间的联系
今天为大家介绍的是来自Bo Huang和Zhenming Liu团队的一篇论文。化学反应是制药和有机化学研究中非常重要的部分,但是目前的一些方法还不够完善,无法充分捕捉和利用化学反应的规律。为了解决这个问题,作者提出了一个全新的计算框架。这个框架的独特之处在于,它不仅可以学习和理解化学反应是如何进行的,还能基于这些理解生成新的分子结构,这对于发现新药物特别有用。
DrugAI
2024/01/12
4180
Nat. Mach. Intell. | 化学反应预训练和条件分子生成之间的联系
Nat. Mach. Intell. | 基于集成学习与prompt增强,DeepNano提升纳米抗体-抗原相互作用性能
今天为大家介绍的是来自清华大学自动化系刘民团队的一篇论文。纳米抗体能够特异性地结合不同的抗原,这一特性使其在近年来展现出许多有前景的治疗和检测应用。传统的纳米抗体发现技术主要基于羊驼免疫(alpaca immunization)和噬菌体展示(phage display),这些方法既耗时又需要大量人力。尽管纳米抗体研究已取得进展,但开发快速且准确的计算工具来预测纳米抗体-抗原相互作用(NAI)仍然十分迫切。作者提出了一个基于集成深度学习的框架DeepNano-seq,该框架能够仅通过序列信息来预测包含NAI在内的蛋白质-蛋白质相互作用(PPI)。定量比较结果表明,在现有的PPI算法中,DeepNano-seq具有最佳的跨物种泛化能力。然而,由于NAI和PPI在模式和数据层面都存在差异,包括DeepNano-seq在内的几种最有效的PPI方法在NAI预测方面表现不够理想。因此,作者从公共数据库中整理NAI数据用于专门的NAI建模。此外,作者通过基于prompt的方法引导模型关注抗原结合位点,增强了DeepNano-seq的预测流程,最终提出了DeepNano模型。全面评估表明,DeepNano在NAI预测和纳米抗体虚拟筛选方面表现出色。总的来说,DeepNano-seq和DeepNano可以为纳米抗体的发现提供强大的工具。
DrugAI
2025/01/07
1550
Nat. Mach. Intell. | 基于集成学习与prompt增强,DeepNano提升纳米抗体-抗原相互作用性能
Nat. Mach. Intell. | 分子表征的几何深度学习
本文介绍由瑞士苏黎世联邦理工学院化学与应用生物科学系的Francesca Grisoni和Gisbert Schneider共同通讯发表在 Nature Machine Intelligence的研究成果:本文作者重点介绍了几何深度学习在药物发现、化学合成预测和量子化学等领域的应用,其包含几何深度学习的原理和相关的分子表征,例如分子图、网格、表面和字符串。作者讨论了分子科学中几何深度学习面临的挑战,并展望其未来应用。
DrugAI
2021/12/29
7440
Nat. Mach. Intell. | 分子表征的几何深度学习
深度稳定学习:因果学习的最新进展 | 清华大学团队 CVPR 研究
这都2021年了,对 AI 而言,识别出猫猫狗狗肯定再简单不过了。‍‍‍‍‍‍‍‍
AI科技评论
2021/05/19
2.3K0
深度稳定学习:因果学习的最新进展 | 清华大学团队 CVPR 研究
Nat. Mach. Intell. | 多尺度拓扑Transformer用于蛋白质-配体相互作用预测
今天为大家介绍的是来自美国密歇根州立大学的Guo-Wei Wei团队的一篇论文。尽管预训练的自然语言处理(NLP)模型在各个领域取得了成功,但它们在计算生物学中的应用受到了阻碍,因为它们依赖于生物序列而忽略了重要的三维(3D)结构信息,这与NLP模型的序列架构不兼容。在此,作者提出了TopoFormer,该模型通过整合NLP模型和一种多尺度拓扑技术——持久拓扑超图拉普拉斯(PTHL)构建而成。PTHL能够系统地将复杂的3D蛋白质-配体复合物在不同的空间尺度上转换为NLP可接受的拓扑不变量和同伦形状序列,捕捉跨越不同空间尺度的基本相互作用。TopoFormer在多个基准数据集中的评分、排序、对接和筛选任务中表现出了出色的准确性和卓越的性能。这种方法可以用于将一般的高维结构数据转换为NLP兼容的序列,为更广泛的基于NLP的研究铺平了道路。
DrugAI
2024/07/30
1950
Nat. Mach. Intell. | 多尺度拓扑Transformer用于蛋白质-配体相互作用预测
推荐阅读
神经网络其实和人一样懒惰,喜欢走捷径......
7410
深度学习败于“捷径”
3600
Nat. Mach. Intell. | 评估基于shapely值的特征归因算法
6770
Nat. Mach. Intell. | 基准数据集的泛化评估不真实?哈佛医学院提出SPECTRA
870
Nat. Mach. Intell. | 深度化学模型的神经缩放
1690
Nat. Mach. Intell. | 基于癌症影像生物标志物的基础模型
1540
Nat. Mach. Intell. | “数据+知识+AI” 解锁新靶标药物虚拟筛选
2980
Nat. Mach. Intell. | 通过交互式自然语言对话解释机器学习模型
2420
Nat. Mach. Intell. | 华科同济医学院剑桥联手推出新冠预测模型!
5250
Nat. Mach. Intell. | 药物设计中的多任务学习
1660
Nat. Mach. Intell. | 利用条件循环神经网络生成特定性质分子
6790
Nat. Mach. Intell. | 结构引导的预训练模型
1990
Nat. Mach. Intell. | 可解释胶囊网络深度学习框架从单细胞RNA测序数据中识别细胞类型
7610
Nat. Mach. Intell.|从局部解释到全局理解的树模型
5840
Nat. Mach. Intell. | 基于对比学习的方法可快速映射到数百万规模的多模态单细胞图谱
6360
Nat. Mach. Intell. | 化学反应预训练和条件分子生成之间的联系
4180
Nat. Mach. Intell. | 基于集成学习与prompt增强,DeepNano提升纳米抗体-抗原相互作用性能
1550
Nat. Mach. Intell. | 分子表征的几何深度学习
7440
深度稳定学习:因果学习的最新进展 | 清华大学团队 CVPR 研究
2.3K0
Nat. Mach. Intell. | 多尺度拓扑Transformer用于蛋白质-配体相互作用预测
1950
相关推荐
神经网络其实和人一样懒惰,喜欢走捷径......
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档