今天为大家介绍的是来自北京大学AI4S平台中心主任、信息工程学院陈语谦教授团队提出了一种基于跨域元学习的图注意网络Meta-GAT,它可以在少数样本上可靠地预测分子属性。提议的图注意力网络可以有效地捕获任何原子间的相互作用以及键的边缘信息,以此来捕获原子的局部化学环境,并学习整个分子水平的几何空间结构和连接性。Meta-GAT利用分子数据中有用的未标记信息,并进一步开发有效的学习过程来转移来自源域的元知识。具体来说,Meta-GAT 模型对不同源域的大量类似分子进行先验分析获得元知识。Meta-GAT 受益于元知识,在转移到新的化学空间时降低了样本复杂性的要求。然后Meta-GAT 通过几个样本的内部迭代快速适应目标域中新支架集合的分子。实验表明,Meta-GAT 在多个基准生物活性和生理数据集上实现了最先进的领域泛化性能,并且在低数据约束下稳健地估计了各种分子特性数据集的不确定性。这些优势表明Meta-GAT很有可能成为面向少量样本的虚拟筛选技术的可行选择。
图卷积网络 Graph Convolutional Network (GCN) 告诉我们将局部的图结构和节点特征结合可以在节点分类任务中获得不错的表现。美中不足的是 GCN 结合邻近节点特征的方式和图的结构依依相关,这局限了训练所得模型在其他图结构上的泛化能力。
深度学习还没学完,怎么图深度学习又来了?别怕,这里有份系统教程,可以将0基础的你直接送到图深度学习。还会定期更新哦。
项目地址:https://github.com/gordicaleksa/pytorch-GAT
量化投资与机器学习微信公众号,是业内垂直于量化投资、对冲基金、Fintech、人工智能、大数据等领域的主流自媒体。公众号拥有来自公募、私募、券商、期货、银行、保险、高校等行业30W+关注者,荣获2021年度AMMA优秀品牌力、优秀洞察力大奖,连续2年被腾讯云+社区评选为“年度最佳作者”。 量化投资与机器学习公众号独家撰写 感谢ChinaScope对本文提供数据支持 核心观点 本文在Qlib已实现的图神经网络模型GATs上进行改进,引入以基于数库SmarTag新闻分析数据的共现矩阵作为显性图关系; 实证
图形,由点、线、面和体构成,代表了一种理解抽象概念和表达抽象思想的有效工具。图形语言的优势在于其跨越语言障碍的能力,这种能力和技术大多是人类为了理解世界而发展出来的。计算机科学和人工智能的快速进步,使得理解和学习事物之间的更深层次客观关系变得可能。图神经网络(GNN)的诞生,更加帮助人类通过图形来了解和解决问题。图注意力神经网络(GAT)是一种专为处理图结构数据而设计的特殊神经网络。不同于传统神经网络,GAT在处理输入数据时,会充分考虑数据间的关系,使其在处理图结构数据时能更准确地捕捉到数据间的关联性。GAT的主要优势在于其自动学习节点间关系的能力,无需人工预设。
链接:https://zhuanlan.zhihu.com/p/432923190
注意机制已成功用于许多基于序列的任务,例如机器翻译,机器阅读等等。与GCN平等对待节点的所有邻居相比,注意力机制可以为每个邻居分配不同的注意力得分,从而识别出更重要的邻居。将注意力机制纳入图谱神经网络的传播步骤是很直观的。图注意力网络也可以看作是图卷积网络家族中的一种方法。
图卷积发展至今,早期的进展可以归纳为谱图方法和非谱图方法,这两者都存在一些挑战性问题。
半监督图卷积神经网络(Semi-GCN)对原始的GCN进行了约束与简化,也因此诞生了诸多研究方向。GraphSAGE首先归纳出了Neighbor Aggregate模式;GAT将Attention机制引入到了GCN当中;GeniePath尝试将GCN的层次做深。本次讨论将主要介绍semi-GCN之后的这些变体与它们之间的联系,以及当前GCN研究当中的问题与挑战。
餐厅评论中的三个例子来说明 ABSA 中方面aspect、注意力和句法之间的关系。Labeled edges表示依存关系,每个单词下的分数表示由LSTM分配注意力权重。具有高注意力权重的词在「红色框」中突出显示,括号中的词是目标方面target aspect,后面是它们的情感标签。
今天学习的是剑桥大学的同学 2017 年的工作《GRAPH ATTENTION NETWORKS》,目前引用数量超过 1100 次。
图是计算机中的一种数据结构,图的基本构成单元是顶点 和边。一个图是由多个顶点和多条边所构成的,对于图中的任意两个顶点,如果两个点之间的边是有方向的边,则称为有向图,如果边没有方向,则称为无向图。
近日,GAN的大家族又出一位重量级新成员U-GAT-IT,图像转换效果提升明显,原作者开源代码这两天登顶Github趋势榜,引起极大关注。
今天为大家介绍的是来自JunJie Wee和Kelin Xia团队的一篇关于抗生素发现的论文。人工智能(AI)技术在改变抗生素发现行业方面具有巨大潜力。高效和有效的分子特征化是实现高准确性学习用于抗生素发现的模型的关键。作者提出了一种通过结合基于序列的2D指纹和基于结构的图表示的指纹增强的图注意力网络(FinGAT)模型。在特征学习过程中,序列信息转化为指纹向量,结构信息通过GAT模块编码为另一个向量。这两个向量被连接并输入到多层感知机(MLP)进行抗生素活性分类。模型经过广泛的测试并与现有模型进行比较。研究发现, FinGAT在抗生素发现中可以胜过各种最先进的GNN模型。
图神经网络(gnn)是一类功能强大的神经网络,它对图结构数据进行操作。它们通过从节点的局部邻域聚合信息来学习节点表示(嵌入)。这个概念在图表示学习文献中被称为“消息传递”。
摘要:本篇从理论到实战详细介绍了目前很火的图神经网络GNN。首先介绍了背景,主要包括学习GNN的原因、GNN应用场景以及在我们业务中如何应用GNN;然后从理论详细介绍了GNN,包括GNN和Graph Embedding的关系、GNN的整体流程和分类以及GNN的经典模型GCN、GAT和GraphSAGE;最后在CORA数据集上基于开源框架tf_geometric实践了GAT模型。希望对于学习并将图神经网络GNN应用到实际业务场景的小伙伴可能有所帮助。
选自arXiv 机器之心编译 参与:刘晓坤、李泽南 近日,Bengio 团队提出了基于近邻节点注意机制的网络架构 GAT,可用于处理复杂、不规则结构的计算图,并在三种困难的基准测试中得到了业内最佳水平,研究人员称该模型有望在未来处理任意不规则结构图。该论文现已提交至 ICLR 2018 大会。 卷积神经网络已成功应用于解决图像分类、语义分割、机器翻译等问题,其中背后的数据表证有着网格状的结构。这些结构通过把学习到的参数应用到所有的输入位置,能高效的重复使用局部过滤器。 然而,许多有趣任务的数据并不能表示为网
今天给大家介绍由厦门大学刘向荣教授团队发表在Bioinformatics上的文章,文章提出一个用于DDI预测的链接感知图注意网络,称为LaGAT。该模型能够基于不同的药物对在知识图谱中为药物实体产生不同的注意途径;作者在两个公开的DDI数据集上进行了实验,并可视化了模型生成的注意力路径。结果证明,LaGAT能够更好地捕捉语义关系,并能够基于知识图谱做出更具有可解释性的DDI预测。
从社交网络到生物信息学,再到机器人学中的导航和规划问题,图在各种现实世界的数据集中普遍存在。
2021年11月18日,JCIM杂志发表文章,介绍了一种利用靶蛋白结合位点的图形表示,来为靶蛋白设计新的小分子的深度学习方法。
本文从一个更直观的角度对当前经典流行的GNN网络,包括GCN、GraphSAGE、GAT、GAE以及graph pooling策略DiffPool等等做一个简单的小结。
来源:机器学习算法那些事 极市平台 https://zhuanlan.zhihu.com/p/136521625 本文约6000字,建议阅读10分钟 本篇文章将从一个更直观的角度对当前经典流行的GNN网络,包括GCN、GraphSAGE、GAT、GAE以及graph pooling策略DiffPool等等做一个简单的小结。 “近年来,深度学习领域关于图神经网络(Graph Neural Networks,GNN)的研究热情日益高涨,图神经网络已经成为各大深度学习顶会的研究热点。GNN处理非结构化数据时的出色
来源:Google、新智元 本文约2550字,建议阅读5分钟 本文为你介绍谷歌大脑与牛津大学、哥伦比亚大学的研究人员提出的一种全新GNN:GKATs。 [ 导读 ]GNN虽牛,但也避免不了计算复杂性等问题。为此,谷歌大脑与牛津大学、哥伦比亚大学的研究人员提出了一种全新的GNN:GKATs。不仅解决了计算复杂度问题,还被证明优于9种SOTA GNN。 从社交网络到生物信息学,再到机器人学中的导航和规划问题,图在各种现实世界的数据集中普遍存在。 于是乎,人们对专门用于处理图结构数据的图神经网络(GNN)产生了极
https://zhuanlan.zhihu.com/c_1131513793020334080
现有的高通量筛选实验用于确定药物和靶标之间的生物活性是一个昂贵费时的步骤。因此,基于已经在临床实验中测量的相互作用,使用统计学和机器学习模型来估计新的药物-靶标的相互作用的强度是重要的替代方案。澳大利亚Deakin大学的Svetha Venkatesh课题组提出了GraphDTA,一种基于图神经网络的药物-靶标结合亲和力的预测方法。
代码仓库:A-Unified-Framework-for-Deep-Attribute-Graph-Clustering
图神经网络已经在NLP、CV、搜索推荐广告等领域广泛应用,今天我们就来整体梳理一些经典常用的图网络模型:DeepWalk、GCN、Graphsage、GAT!
题目: Heterogeneous Graph Attention Network
图表示学习旨在基于图结构数据学习表示,并用于节点分类、链路预测等下游任务。由于节点特征和图结构包含重要信息,因此图表示学习任务具备一定的挑战性。图神经网络(GNN)融合了来自节点特征和图结构的信息,因而具备优秀的性能。
我们在去年12月发布了Deep Graph Library (DGL)的首个公开版本。在过去的几个版本的更新中,DGL主要注重框架的易用性,比如怎样设计一系列灵活易用的接口,如何便于大家实现各式各样的图神经网络(GNN)模型,以及怎样和主流深度学习框架(如PyTorch,MXNet等)集成。因为这些设计,让DGL快速地获得了社区的认可和接受。然而天下没有免费的午餐,不同的框架对于相同的运算支持程度不同,并且普遍缺乏图层面上的计算原语,导致了计算速度上的不足。随着DGL接口的逐渐稳定,我们终于可以腾出手来解决性能问题。即将发布的DGL v0.3版本中,性能问题将得到全面而系统地改善。
要找到免费的激光雷达数据处理软件并不容易,因此在这篇文章中,我们将介绍6个最出色的免费或开源的LiDAR软件,可以用于3D点云查看、点云数据分析、点云操作等。
来源:AI有道 极市平台本文约5900字,建议阅读10分钟本篇文章将从一个更直观的角度对当前经典流行的GNN网络,包括GCN、GraphSAGE、GAT、GAE以及graph pooling策略DiffPool等等做一个简单的小结。 近年来,深度学习领域关于图神经网络(Graph Neural Networks,GNN)的研究热情日益高涨,图神经网络已经成为各大深度学习顶会的研究热点。GNN处理非结构化数据时的出色能力使其在网络数据分析、推荐系统、物理建模、自然语言处理和图上的组合优化问题方面都取得了新的突
我在ADGC的基础上重构了代码,让深度聚类的代码实现了更高的统一。具体来说,我重新设计了代码的架构,让你可以在我的框架中轻松运行不同模型的代码,并且提升了可扩展性。此外,我定义了一些工具类和函数来简化代码并使一些配置更加清晰。
格莱斯顿研究所(Gladstone Institutes)的研究人员发现,丘脑中的星形胶质细胞在使脑损伤的小鼠容易癫痫发作方面发挥了关键作用,并发现脑损伤和中风患者的丘脑中可能会改变同样的细胞。这项发表在《科学转化医学》杂志上的研究结果表明,针对这些细胞中的一种蛋白质可以防止脑损伤后的长期损伤。
蛋白质-蛋白质相互作用在大多数生物过程起着至关重要的作用。然而,使用传统的实验方法来确定蛋白质-蛋白质相互作用位点(PPIS)依然要耗费大量的时间和资金成本。因此,近些年来涌现出很多预测PPIS的算法,大多都是需要partner的,虽然也有加入PSSM矩阵信息后可以做到基于单体的预测,但是结果都不是很理想。
近年来,深度学习领域关于图神经网络(Graph Neural Networks,GNN)的研究热情日益高涨,图神经网络已经成为各大深度学习顶会的研究热点。GNN处理非结构化数据时的出色能力使其在网络数据分析、推荐系统、物理建模、自然语言处理和图上的组合优化问题方面都取得了新的突破。
近年来,人们对深度学习方法在图数据上的扩展越来越感兴趣。在深度学习的成功推动下,研究人员借鉴了卷积网络、循环网络和深度自动编码器的思想,定义和设计了用于处理图数据的神经网络结构。图神经网络的火热使得各大公司纷纷推出其针对图形结构数据的神经网络框架。下面分别介绍四大图神经网络框架。
华东理工大学/华东师范大学的李洪林教授/刁妍妍团队在Journal of Chemical Information and Modeling上发表文章:Enhancing Chemical Reaction Monitoring with a Deep Learning Model for NMR Spectra Image Matching to Target Compounds,报道了一个用于自动化学反应监测的深度学习模型MatCS。该模型旨在通过预测目标化合物的SMILES和核磁共振光谱(包括1H NMR和13C NMR)谱图之间的对应关系,实现对化学反应进程的自动监测。
在快速发展的药物发现领域,传统方法的局限性日益凸显。尽管大量资金投入到新药研发中,但近90%的潜在候选药物在临床试验阶段失败,这主要是由于临床疗效不佳、药代动力学特性不理想或存在不良副作用等原因。为了应对这些挑战,科研人员正在探索利用人工智能(AI)和机器学习(ML)技术来加速药物发现进程、降低成本并提高成功率。特别是深度学习(DL)技术,在管理庞大的数据集、提高预测准确性以及简化复杂工作流程方面展现出了非凡的能力。
会议: International Conference on Learning Representations, 2018
Transformer诞生于NLP领域,目前已经成为NLP中的主力模型。同时,Transformer在CV领域也逐渐显示出其超强的能力,诸如ViT、Swin Transformer、BEiT等Vision Transformer模型验证了Transformer同样适用于图像领域。然而,Transformer在图表示学习领域的发展速度明显不如NLP和CV领域。在图表示学习中,基于图卷积(GCN)的方法仍然是主力模型。
相信对于不少人而言微信已经成为获取资讯的主要场景。与此同时,由于微信用户群体的庞大,也吸引了大量的内容生产者在微信公共平台创造内容,以获取用户关注、点赞、收藏等。微信内的内容推荐产品:看一看应运而生。
paper:https://mila.quebec/wp-content/uploads/2018/07/d1ac95b60310f43bb5a0b8024522fbe08fb2a482.pdf
图神经网络(Graph Neural Networks,GNN)是近几年兴起的新的研究热点,其借鉴了传统卷积神经网络等模型的思想,在图结构数据上定义了一种新的神经网络架构。如果作为初入该领域的科研人员,想要快速学习并验证自己的想法,需要花费一定的时间搜集数据集,定义模型的训练测试过程,寻找现有的模型进行比较测试,这无疑是繁琐且不必要的。GraphGallery 为科研人员提供了一个简单方便的框架,用于在一些常用的数据集上快速建立和测试自己的模型,并且与现有的基准模型进行比较。GraphGallery目前支持主流的两大机器学习框架:TensorFlow 和 PyTorch,以及两种图神经网络开发后端PyG与DGL,带你几行代码玩转图神经网络。
随着机器学习技术的迅猛发展,越来越多的数据类型得到了广泛的研究和应用。其中,图数据由于其能够表示复杂关系和结构的特点,逐渐成为研究的热点。然而,传统的机器学习和神经网络方法在处理图数据时往往力不从心,因为它们主要针对的是结构化数据(如表格数据)或序列数据(如文本和时间序列)。因此,如何高效地处理和分析图数据成为了一个重要的研究课题。
authors:: Nicholas Lim, Bryan Hooi, See-Kiong Ng, Yong Liang Goh, Renrong Weng, Rui Tan container:: Proceedings of the 45th international ACM SIGIR conference on research and development in information retrieval year:: 2021 DOI:: 10.1145/3477495.3531989 rating:: ⭐⭐⭐⭐ share:: false comment:: 框架为 LSTM,在隐藏层加入全局时空信息,以多任务预测的形式同时预测 POI 以及 POI 所在区域,并通过区域对 POI 预测进行指导,建立层次结构预测 POI。
领取专属 10元无门槛券
手把手带您无忧上云