首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
您找到你想要的搜索结果了吗?
是的
没有找到

Nat. Mach. Intel. | 基于广义模板的图形神经网络用于准确的有机反应性预测

本文介绍韩国大田 KAIST 化学与生物分子工程系与人工智能研究生院的Yousung Jung团队2022年9月15日发表在Nature Machine Intelligence的研究成果A generalized-template-based graph neural network for accurate organic reactivity prediction。Yousung Jung团队提出了一个化学驱动的图神经网络,称为LocalTransform,它基于广义的反应模板学习有机反应性,以描述反应物和产物之间的电子构型的净变化。所提出的概念极大地减少了反应规则的数量,并表现出最先进的产物预测精度。除了广义反应模板的内在可解释性外,该模型的高分值-准确率相关性使用户可以评估机器预测的不确定性。

02

NeurIPS| 利用条件图逻辑网络进行逆合成预测

今天给大家介绍的是Google Research和蚂蚁金服等团队在NeurlPS发表的一篇名为“Retrosynthesis Prediction withConditional Graph Logic Network”的文章。逆合成分析属于有机化学中的基本问题,在机器学习领域也引起广泛关注。文章中,作者把逆合成的任务描述为“在确定的分子空间中寻找可以用来合成产物分子的反应物分子集合”这一问题。大多数现有的方法依赖于子图匹配规则的基于模板的模型,但是化学反应是否可以进行并不是严格由决策规则定义的。在文章中,作者提出了一种使用条件图逻辑网络来完成这项任务的新方法,它可以学习何时应该应用反应模板中的规则,隐式地考虑所产生的反应是否具有化学可行性和策略性。作者还提出了一种有效的分层抽样来减少计算成本。在基准数据集上,与当时最先进的方法相比,作者的模型实现了8.1%的显著改进,同时还提供了对预测的解释。

02

全新SOTA骨干网络HIRI-ViT | 大力出奇迹,高分辨率+双路径设计,让Backbone卖力生产精度

受到自然语言处理(NLP)[1]中占主导地位的Transformer结构的启发,计算机视觉(CV)领域见证了Vision Transformer(ViT)在视觉 Backbone 设计上的崛起。这一趋势在图像/动作识别[2, 3, 4, 5]和密集预测任务(如目标检测[6])中表现得最为明显。这些成功中的许多都可以归因于通过传统Transformer块中的自注意力机制对输入视觉token之间的长距离交互的灵活建模。最近,几项并行研究[7, 8, 9, 10, 11]指出,直接在视觉token序列上应用纯Transformer块是次优的。这种设计不可避免地缺乏对2D区域结构建模的正确感应偏差。为了缓解这一限制,它们引领了将卷积神经网络(CNN)的2D感应偏差注入ViT的新浪潮,产生了CNN+ViT混合 Backbone 。

01
领券