首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
您找到你想要的搜索结果了吗?
是的
没有找到

arXiv | 操作符自编码器:学习编码分子图上的物理操作

今天给大家介绍的是发表在arXiv上一项有关分子动力学内容的工作,文章标题为Operator Autoencoders: Learning Physical Operations on Encoded Molecular Graphs,作者分别是来自波特兰州立大学的Willis Hoke, 华盛顿大学的Daniel Shea以及美国兰利研究中心的Stephen Casey. 在这项工作中,作者开发了一个用于建立分子动力学模拟的时间序列体积数据图结构表示的流程。随后,作者训练了一个自编码器,以找到一个潜在空间的非线性映射。在该空间中,通过应用与自编码器串联训练的线性算子,可以预测未来的时间步长。同时,作者指出增加自编码器输出的维数可以提高物理时间步算子的精度。

05

GPT:Generative Pre-Training

随着深度学习在NLP领域的发展,产生很多深度网络模型用于求解各类的NLP问题,从word2vec词向量工具的提出后,预训练的词向量成了众多NLP深度模型中的重要组成部分。然而传统的word2vec生成的词向量都是上下文无关的,其生成的词向量式固定,不会随着上下文的改变而改变,这种固定的词向量无法解决一词多义的问题。比如“bank”这个词,既可以表示“河岸”,也可以表示“银行”。Embeddings from Language Models(ELMo)[1]是2018年提出的一种基于上下文的预训练模型,通过大量语料学习到每个词的一般性embedding形式,学习到与上下文无关的语义向量表示,以此实现对多义词的建模。

03

文本数据的机器学习自动分类方法(上)

【编者按】:随着互联网技术的迅速发展与普及,如何对浩如烟海的数据进行分类、组织和管理,已经成为一个具有重要用途的研究课题。而在这些数据中,文本数据又是数量最大的一类。以统计理论为基础,利用机器学习算法对已知的训练数据做统计分析从而获得规律,再运用规律对未知数据做预测分析,已成为文本分类领域的主流。InfoQ联合“达观数据“共同策划了《文本数据的机器学习自动分类方法》系列文章,为您详细阐述机器学习文本分类的基本方法与处理流程。 本文为第一部分,着重介绍文本预处理以及特征抽取的方法。第二部分将会着重介绍特征向量

06

学界 | 明星脸、花鸟都不是问题,微软中科大联合推出细粒度图像合成模型

AI 科技评论按:最近推出的几个计算机视觉领域中的突破性论文在图像合成领域展示了新的可能,他们能够创造非常自然的图像,并且合成无比真实甚至同时保持面部信息的人脸图像。论文《CVAE-GAN:一种通过非对称训练的细粒图像生成模型》就是其中之一,它是由微软和中国科学技术大学的研究团队在威尼斯举办的 ICCV 2017 上展示的一种方法,它是一种基于变分自动编码器生成对抗网络的图像生成模型,能够在特定细粒类别中合成自然图像。特定细粒度的类别包括特定的人脸,如名人或者真实世界的物体,如特定类型的花或者鸟。

05
领券