首页
学习
活动
专区
工具
TVP
发布

程序生活

专栏成员
447
文章
511002
阅读量
58
订阅数
图神经网络17-DGL实战:节点分类/回归
对于图神经网络来说,最常见和被广泛使用的任务之一就是节点分类。 图数据中的训练、验证和测试集中的每个节点都具有从一组预定义的类别中分配的一个类别,即正确的标注。 节点回归任务也类似,训练、验证和测试集中的每个节点都被标注了一个正确的数字。
致Great
2023-08-26
5190
nlp-with-transformers实战-01_transformers简介
  2017年,谷歌的研究人员发表了一篇论文,提出了一种用于序列建模的新型神经网络架构。 被称为Transformer的这一架构在机器翻译任务上的表现优于循环神经网络(RNN),在翻译质量和训练成本方面都是如此。
致Great
2022-03-30
5120
【DCIC2022】科技金融子赛道验证码识别0.65+ baseline
在传统的文本识别方法中,任务分为3个步骤,即图像预处理、字符分割和字符识别。需要对特定场景进行建模,一旦场景变化就会失效。面对复杂的文字背景和场景变动,基于深度学习的方法具有更优的表现。
致Great
2022-03-11
4670
ERNIE 3.0 Titan:最强中文预训练模型
本文介绍了一个中文大语言模型。作者提出了名为ERNIE 3.0的统一框架,用于预训练大规模知识增强模型,并训练了一个具有 100 亿个参数的模型。 ERNIE 3.0 在各种 NLP 任务上的表现优于最先进的模型。为了探索扩展 ERNIE 3.0 的性能,作者在PaddlePaddle平台上训练了具有多达2600亿个参数的百亿参数模型 ERNIE 3.0 Titan。此外,作者设计了一个自监督的对抗损失和一个可控的语言建模损失,使ERNIE 3.0 Titan 生成可信且可控的文本。为了减少计算开销和碳排放,作者为 ERNIE 3.0 Titan 提出了一个在线蒸馏框架,其中教师模型将同时教授学生和自我训练。ERNIE 3.0 Titan是迄今为止最大的中文密集预训练模型。实证结果表明,ERNIE 3.0 Titan在 68 个NLP数据集上的表现优于最先进的模型。
致Great
2022-01-06
1K0
给Bert加速吧!NLP中的知识蒸馏论文 Distilled BiLSTM解读
论文题目:Distilling Task-Specific Knowledge from BERT into Simple Neural Networks 论文链接:https://arxiv.org/pdf/1903.12136.pdf
致Great
2021-11-24
6680
图神经网络14-TextGCN:基于图神经网络的文本分类
论文题目:Graph Convolutional Networks for Text Classification 论文地址:https://arxiv.org/pdf/1809.05679.pdf 论文代码:https://github.com/yao8839836/text_gcn 发表时间:AAAI 2019
致Great
2021-06-01
3.2K0
图神经网络必读论文-Must-read papers on GNN
GNN: graph neural network Contributed by Jie Zhou, Ganqu Cui, Zhengyan Zhang and Yushi Bai. 来源:THU
致Great
2021-05-11
1.6K0
图神经网络12-分子指纹GCN:Neural FPs
论文:Convolutional Networks on Graphs for Learning Molecular Fingerprints 图卷积网络用于学习分子指纹 链接:http://arxiv.org/pdf/1509.09292.pdf 作者:David Duvenaud†, Dougal Maclaurin†, Jorge Aguilera-Iparraguirre (哈佛大学) 来源:NIPS 2015 代码:https://github.com/HIPS/neural-fingerprint
致Great
2021-05-11
1.1K0
图与图学习(下)
在中篇中,我们了解了图机器学习(GML:Graph Machine Learning)。下面,终于到了这个前置教程的重头戏,图神经网络(Graph Neural Networks)。 我们通过结合论文A Comprehensive Survey on Graph Neural Networks来学习现在图神经网络的发展现状。
致Great
2021-03-23
6440
Multi-Scale Convolutional Neural Networks for Time Series Classification
通过降采样的变换,实现在不同时间尺度的序列上的特征提取。 通过滑动平均的变换,实现对噪音的抵抗性。
致Great
2021-03-03
5850
可视化Keras模型
您是否曾经想过您的神经网络实际上是如何连接不同的神经元的?如果您可以可视化所设计的模型架构,那不是很好吗?如果您可以将模型架构下载为演示时可以使用的图像,那不是很好吗?如果所有这些都为“是”,那么您来对地方了。 在本文中,我将向你展示一个Ë xciting Python包/模块/库,可用于可视化Keras模型。无论是卷积神经网络还是人工神经网络,该库都将帮助您可视化所创建模型的结构。 Keras Visualizer是一个开源python库,在可视化模型如何逐层连接方面确实很有帮助。因此,让我们开始吧。
致Great
2021-02-25
1.5K0
图神经网络(02)-基于Graph的传统机器学习理论
图学习任务 我们简单回顾下,上一节我们介绍了,图的机器学习任务主要是以下三种: Node Level:节点级别 Link Level:边级别 Graph Level:图级别 并且三部分难度依次是由
致Great
2021-01-29
5901
图神经网络01-基于Graph的机器学习简介
从上面一些例子我们可以看出,Graph的概念存在于这个世界的每个地方,我们每个人都或多或少地在Graph扮演某个角色或者正在利用Graph带来的便利,目前随着图神经网络的崛起,Graph的潜在价值将会越来越大
致Great
2021-01-29
7470
图神经网络(01)-图与图学习(上)
图(graph)近来正逐渐变成机器学习的一大核心领域,在开始PGL框架学习之前,我们先简单学习一下图论的基本概念,图论的经典算法,以及近些年来图学习的发展。
致Great
2021-01-27
2.8K0
Kaggle系列-IEEE-CIS Fraud Detection第一名复现
想象一下,站在杂货店的收银台,身后排着长队,收银员没有那么安静地宣布您的信用卡被拒绝了。在这一刻,你可能没有想到决定你命运的数据科学。 非常尴尬有木有?当然你肯定有足够的资金为50个最亲密的朋友办一场盛大的纳乔派对,然后你又试了一次,但是还是同样的结果。此时你只能站在另外一边,让收银员为下一个客户服务时,你收到了银行的短信。“如果你真的想花500美元买切达干酪,请按1。” 虽然现在可能很麻烦(而且常常很尴尬),但这种防欺诈系统实际上每年为消费者节省数百万美元。来自ieee计算智能协会(ieee-cis)的研究人员希望在改善客户体验的同时,提升这个数字。有了更高准确度的欺诈检测率,您就可以在没有麻烦的情况下继续使用您的芯片。 ieee-cis在各种人工智能和机器学习领域,包括深层神经网络、模糊系统、演化计算和群智能等等。今天,他们正与世界领先的支付服务公司Vesta Corporation合作,为防欺诈行业寻求最佳解决方案,现在邀请您也加入此次挑战。 在本次竞赛中,您将在一个具有挑战性的大型数据集上对你的机器学习模型进行基准测试。这些数据来自Vesta的真实电子商务交易,并且包含了从设备类型到产品功能的各种特征。您还可以创建新的特征来改善结果。 如果成功,您将提高全球数百万人的欺诈交易警报的有效性,帮助数十万企业减少欺诈损失并增加收入。当然,你也可以为你自己减少误报的麻烦。
致Great
2021-01-21
5850
Kaggle Jigsaw文本分类比赛方案总结
这个比赛是一个文本分类的比赛,这个比赛目标是在给定文本中判断是否为恶意评论即01分类。训练数据还给了其他多列特征,包括一些敏感词特征还有一些其他指标评价的得分特征。测试集没有这些额外的特征只有文本数据。
致Great
2021-01-13
8570
教程:如何直接从可视化CNN layers中的特征
注意:在这里,我们只关心构建CNN模型并观察其特征图(feature map),我们不关心模型的准确性。
致Great
2021-01-06
8920
转 Target Encoding之Smoothing
原文:https://www.cnblogs.com/bjwu/p/9087071.html
致Great
2020-12-16
1.1K0
表格数据深度学习框架-DeepTables
MLP(也称为全连接神经网络)已被证明在学习分布表示方面效率低下。 事实证明,感知器层的“Add”操作在探索乘法特征交互时性能较差。 在大多数情况下,必须进行手动特征工程,并且这项工作需要广泛的领域知识并且非常繁琐。 如何在神经网络中有效地学习功能交互成为最重要的问题。
致Great
2020-12-10
1.4K0
零基础入门NLP - 新闻文本分类 方案整理
比赛链接:https://tianchi.aliyun.com/forum/#raceId=531810 以下资料整理自比赛论坛,感谢这些无私开源的选手们,以下是整理TOP5方案的主要思路和模型,以便大家学习
致Great
2020-11-24
1.7K0
点击加载更多
社区活动
【纪录片】中国数据库前世今生
穿越半个世纪,探寻中国数据库50年的发展历程
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档