表示学习是机器学习中的一个重要研究方向,在NLP、CV领域有很多经典的表示学习工作。大多数表示学习利用无监督学习的方法,结合合适的正负样本pair构造、损失函数,学习便于让机器学习模型理解的样本表示。近期,表示学习也逐渐应用到了时间序列领域。今天给大家介绍一篇时间序列表示学习的前沿工作,是由北京大学和微软联合署名的一篇AAAI 2022工作TS2Vec。
无处不在的缺失值导致多元时间序列数据只能部分观测,破坏了时间序列的完整性,阻碍了有效的时间序列数据分析。近年来,深度学习插补方法在提升损坏时间序列数据质量方面取得了显著的成功,从而提高了下游任务的性能。
量化投资与机器学习微信公众号,是业内垂直于量化投资、对冲基金、Fintech、人工智能、大数据等领域的主流自媒体。公众号拥有来自公募、私募、券商、期货、银行、保险、高校等行业30W+关注者,荣获2021年度AMMA优秀品牌力、优秀洞察力大奖,连续2年被腾讯云+社区评选为“年度最佳作者”。 作者:Ignacio Oguiza 编译:1+1=6 前言 深度学习在时间序列预测中的重要性不断增强。神经网络第一次在Kaggle时间序列竞赛中位列前3名是在2015年(Rossmann store sa
在这个数字化时代,时间序列数据被广泛应用于各个领域,例如金融、医疗、电子商务等。对于这些领域的决策来说,准确的时间序列预测非常重要。因此,保护时间序列预测模型免受攻击是很多厂家所关注的问题。过去,许多研究人员关注于防御策略,例如使用统计方法、检测异常值等方法。但是,这些方法在防御效果上可能存在局限性。
这些数据是根据国家和地区报告新病例的数据,但我们只想预测国家的新病例,因此我们使用 groupby 根据国家对它们进行分组
TimeGPT是首个时间序列基础大模型,能准确预测多样化数据集。评估显示,TimeGPT推理在性能、效率和简单性上优于统计、机器学习和深度学习方法。
来源:机器之心本文约2600字,建议阅读9分钟在时间序列预测任务上,你不妨试试简单的机器学习方法。 在深度学习方法应用广泛的今天,所有领域是不是非它不可呢?其实未必,在时间序列预测任务上,简单的机器学习方法能够媲美甚至超越很多 DNN 模型。 过去几年,时间序列领域的经典参数方法(自回归)已经在很大程度上被复杂的深度学习框架(如 DeepGIO 或 LSTNet 等)更新替代。这是因为传统方法可能无法捕获长期和短期序列混合传递的信息,而深度学习方法的思路是掌握数据中的跨时非线性依赖。从结果来看,这些深度学习
机器之心报道 编辑:杜伟、陈萍 在深度学习方法应用广泛的今天,所有领域是不是非它不可呢?其实未必,在时间序列预测任务上,简单的机器学习方法能够媲美甚至超越很多 DNN 模型。 过去几年,时间序列领域的经典参数方法(自回归)已经在很大程度上被复杂的深度学习框架(如 DeepGIO 或 LSTNet 等)更新替代。这是因为传统方法可能无法捕获长期和短期序列混合传递的信息,而深度学习方法的思路是掌握数据中的跨时非线性依赖。从结果来看,这些深度学习方法不仅优于 ARIMA 等传统方法和梯度提升回归树(Gradien
人工智能、机器学习已经火了有一阵了,很多程序员也想换到这方向,目前有关于深度学习基础介绍的材料很多,但很难找到一篇简洁的文章提供实施机器学习项目端到端的指南,从头到尾整个过程的相关指南介绍。因此,个人在网上搜集到了许多有关于实施机器学习项目过程的文章,深入介绍了如何实现机器学习/数据科学项目的各个部分,但更多时候,我们只需要一些概括性的经验指导。 在我不熟悉机器学习和数据科学的时候,我曾经寻找一些指导性的文章,这些文章清楚地阐述了在项目的某些步骤时候我需要做什么才能很好地完成我的项目。本文将介绍一些文章,旨在为成功实现机器学习项目提供一份端到端的指南。 基于此,闲话少叙,下面让我们开始吧 简而言之,机器学习项目有三个主要部分:第一部分是数据理解、数据收集和清理,第二部分是模型的实现,第三部分是进行模型优化。一般而言,数据理解、收集和清理需要花费整个项目60-70%的时间。为此,我们需要该领域专家。
时间序列异常检测是一项重要的任务,其目标是从时间序列的正常样本分布中识别异常样本。这一任务的最基本挑战在于学习一个能有效识别异常的表示映射。
这是8个月前,全球顶尖的量化交易公司Optiver在Kaggle上面办的一场比赛——预测股票市场波动率、时间序列预测任务。 这场比赛吸引了超过3800支队伍参加,其中相当一部分选手梦想着训出一个模型、指导购买股票(OR彩票)、一夜暴富,迎娶白富美走上人生巅峰。 然后当然是没有然后的。 抛开部分参赛选手难以实现的梦不谈,这场比赛的火爆代表着一个现象——时间序列预测这一传统技术,由于机器学习和深度学习方法的应用,正焕发新的生命力。 广义线性模型,xgboost等机器学习方法,LSTM,CNN,Transf
Optiver是全球顶尖的量化交易公司。10个月前,Optiver在Kaggle上面办的一场预测股票市场波动率的比赛。 这场比赛吸引了超过3800支队伍参加,其中相当一部分选手梦想着训出一个模型、指导购买股票、一夜暴富,迎娶白富美走上人生巅峰。 然后当然是没有然后的。 这场比赛的落地场景——金融量化正是时间序列预测应用最广泛的领域之一。并且随着机器学习和深度学习算法地更广泛应用,时间序列预测的落地场景越来越多,比如供应链、零售、交通等等等等。 广义线性模型,xgboost等机器学习方法,LSTM,CN
表示学习作为深度学习中的核心,近期越来越多的被应用到了时间序列领域中,时间序列分析的表示学习时代已经来了。本文为大家带来了2020年以来顶会的5篇时间序列表示学习相关的核心工作梳理。
Machine Learning Mastery 机器学习算法教程 机器学习算法之旅 利用隔离森林和核密度估计的异常检测 机器学习中的装袋和随机森林集成算法 从零开始实现机器学习算法的好处 更好的朴素贝叶斯:从朴素贝叶斯算法中收益最大的 12 个技巧 机器学习的提升和 AdaBoost 选择机器学习算法:Microsoft Azure 的经验教训 机器学习的分类和回归树 什么是机器学习中的混淆矩阵 如何使用 Python 从零开始创建算法测试工具 通过创建机器学习算法的目标列表来获得控制权 机器学习中算法
Optiver是全球顶尖的量化交易公司。10个月前,Optiver在Kaggle上面办的一场预测股票市场波动率的比赛。
这是一篇非常有意思的论文,它将时间序列分块并作为语言模型中的一个token来进行学习,并且得到了很好的效果。
【导读】你是不是常常烦恼找不到合适的会议时间?我也经常遇到这种问题。当前人们越来越忙,想要协调合适的会议时间是很困难的。本文中,数据科学家Favio Vázquez介绍了一个基于AI的会议规划系统——
Wen Q, Sun L, Song X, et al. Time series data augmentation for deep learning: A survey[J]. arXiv preprint arXiv:2002.12478, 2020.
基于深度学习的时间序列预测方法一般采用端到端的方式训练模型,将原始的时间序列通过网络映射到一个表示,再基于这个表示进行预测。然而,这种方法将时间序列的所有信息映射成一个向量,这个向量耦合了很多不同维度的信息,容易造成过拟合,对序列中噪声的敏感程度也更高。
这是谷歌在9月最近发布的一种新的架构 TSMixer: An all-MLP architecture for time series forecasting ,TSMixer是一种先进的多元模型,利用线性模型特征,在长期预测基准上表现良好。据我们所知,TSMixer是第一个在长期预测基准上表现与最先进的单变量模型一样好的多变量模型,在长期预测基准上,表明交叉变量信息不太有益。”
在机器学习(ML)领域,动力学系统与深度学习的结合已经成为研究社区感兴趣的课题。尤其是对神经微分方程(neural differential equation, NDEs)而言,它证明了神经网络和微分方程是「一枚硬币的正反面」。
早期的时间序列预测主要模型是诸如ARIMA这样的单序列线性模型。这种模型对每个序列分别进行拟合。在ARIMA的基础上,又提出了引入非线性、引入外部特征等的优化。然而,ARIMA类模型在处理大规模时间序列时效率较低,并且由于每个序列分别独立拟合,无法共享不同序列存在的相似规律。深度学习模型在NLP、CV等领域取得了成功应用后,也被逐渐引入到解决时间序列预测问题中。通过不同序列共享一个深度学习模型,让模型能从多个序列中学到知识,并且提升了在大规模数据上的求解效率。
从今天起,我们每周将为大家解读至少3篇以上的量化学术论文。为大家带来最新的研究成果。
随着云技术的飞速发展,云系统的复杂性和规模不断增加,云系统的稳定性受到了极大挑战。为了解决运维问题,运营商会通过指标(Metrics)、日志(Logs)等多个维度信息来了解云系统的运行状态。
时间序列异常检测(TSAD)在各种应用中具有重要性,但面临挑战,需同时考虑变量内和变量间依赖性,基于图的方法在应对这方面取得了进展。
时间数据,特别是时间序列和时空数据,在现实世界的应用中普遍存在。这些数据捕获动态系统的测量值,并由物理和虚拟传感器大量产生。分析这些数据类型对于利用它们所包含的丰富信息至关重要,从而有益于各种下游任务。近年来,大语言模型和其他基础模型的进步促使这些模型在时间序列和时空数据挖掘中的使用不断增加。这些方法不仅增强了跨多个领域的模式识别和推理能力,而且为能够理解和处理常见时间数据的人工通用智能奠定了基础。
AAAI的英文全称是 The Association for the Advance of Artificial Intelligence,即美国人工智能协会。
doublering,携程高级算法工程师,关注自然语言处理、LLMs、时序预测等领域。
自监督学习(SSL)最近在很多深度学习任务上取得了优异的表现,它最显著的优点是可以减少对标签数据的依赖。基于预训练和微调策略,即使只有少量的标签数据也可以取得不错的效果。
生成学习(Generative Learning)在机器学习领域中占据了重要的位置。它通过学习数据分布的方式生成新的数据实例,这在多种应用中表现出了其独特的价值。本节将深入探讨生成学习的核心概念,明确区分生成学习与判别学习,并探索生成学习的主要应用场景。
神经网络的基本思想是模拟计算机“大脑”中的多个相互关联的细胞,这样它就可以从环境中学习、识别不同的模式,并做出与人类相似的决定。
人工智能(AI)的发展是一个从学术研究、行业验证、商业落地、行业平台到智能生态的一层层深入过程,这也是人工智能理想的发展阶段。人工智能的重要性无需赘述,对AI学习对我们来说同样重要,但是如何学习人工智能呢?
今天编辑部带来关于在基于金融时间序列的预测模型案例,我们将通过神经网络来增强一个经典的移动平均策略,并表明它真的是有所改善相对原策略。
时间序列是记录动态系统测量值的主要数据类型,由物理传感器和在线过程(虚拟传感器)大量生成。因此,时间序列分析对于揭示可用数据中隐含的信息财富至关重要。随着图神经网络(GNNs)的最新进展,基于GNN的时间序列分析方法大幅增加。这些方法可以明确地建模时序和变量间的关系,而传统的和其他基于深度神经网络的方法则难以做到。在这项调查中,我们对图神经网络在时间序列分析中的应用进行了全面回顾(GNN4TS),涵盖了四个基本维度:预测、分类、异常检测和填补。我们的目标是指导设计师和从业者了解、构建应用程序,并推进GNN4TS的研究。首先,我们提供了一个全面的面向任务的GNN4TS分类法。然后,我们介绍和讨论代表性研究成果,并介绍GNN4TS的主流应用。最后,我们全面讨论了潜在的未来研究方向。这项调查首次汇集了大量关于基于GNN的时间序列研究的知识,突出了图神经网络在时间序列分析中的基础、实际应用和机遇。
研究者认为,尽管深度学习在其他领域取得了成功,但其在时间序列分析中的有效性仍然受到争议。他们强调了由于缺乏标准化大规模数据集,在评估深度学习模型进行时间序列预测时所面临的挑战。
本文介绍健康医疗的深度学习技术,重点讨论了计算机视觉、自然语言处理、强化学习和广义方法的深度学习。我们描述这些计算技术如何影响医学的几个关键领域,并探索如何构建端到端系统。计算机视觉的讨论主要集中在医学成像上,自然语言处理则主要关注其在电子健康记录数据等领域的应用。同样,在机器人辅助手术的背景下讨论了强化学习,并综述了基因组学的广义深度学习方法。
整理 | Just 出品 | 人工智能头条(公众号ID:AI_Thinker) 你点进来就说明对这深度学习方面的资源有热切需求或者至少感兴趣,人工智能头条为了尽可能满足各位读者在学习资源上的不同需求,会不定期搜集整理相关资源献给你们。 这次的资源来自 fast.ai 推出的免费的入门级深度学习课程,该课程在你有一年编程经验或者至少学过高中数学的前提下就能让你学会建立最先进的模型,门槛不能再低了。 本次的系列课程共有两部分组成:《Practical Deep Learning For Coders》和《Cut
CNN and Bidirectional GRU-Based Heartbeat Sound Classification Architecture for Elderly People是发布在2023 MDPI Mathematics上的论文,提出了基于卷积神经网络和双向门控循环单元(CNN + BiGRU)注意力的心跳声分类,论文不仅显示了模型还构建了完整的系统。
Deep Learning Prediction of IncomingRainfalls: An OperationalServicefor the City of Beijing China
摘要:时间序列一般是指对某种事物发展变化过程进行观测并按照一定频率采集得出的一组随机变量。时间序列预测的任务就是从众多数据中挖掘出其蕴含的核心规律并且依据已知的因素对未来的数据做出准确的估计。由于大量物联网数据采集设备的接入、多维数据的爆炸增长和对预测精度的要求愈发苛刻,导致经典的参数模型以及传统机器学习算法难以满足预测任务的高效率和高精度需求。近年来,以卷积神经网络、循环神经网络和 Transformer 模型为代表的深度学习算法在时间序列预测任务中取得了丰硕的成果。为进一步促进时间序列预测技术的发展,综述了时间序列数据的常见特性、数据集和模型的评价指标,并以时间和算法架构为研究主线,实验对比分析了各预测算法的特点、优势和局限;着重介绍对比了多个基于 Transformer 模型的时间序列预测方法;最后结合深度学习应用于时间序列预测任务存在的问题与挑战对未来该方向的研究趋势进行了展望。(文末附论文下载地址)
不少学术论文对深度学习模型进行了深度探讨,但并没有展示出完整的情况。有趣的是,即使在 NLP 的案例中,一些人更倾向于将 GPT 模型的重大突破归功于“更多的数据和计算能力”,而非“更优秀的机器学习研究”。
先说看完整篇文章我的感受。整篇文章的工作量很大,且质量非常高!这是目前我看到的国内做AI气象研究最好的文章之一。不管你是气象AI研究的初学者还是已有所经验,这篇文章都能给你带来新的认识。这篇文章测试了目前常用的深度学习框架,实验设计非常全面且严谨,同时考虑了深度学习模型的可解释性问题,必读且精读的文献之一!
NeurIPS,全称神经信息处理系统大会(Conference and Workshop on Neural Information Processing Systems),是一个关于机器学习和计算神经科学的顶级国际会议。该会议固定在每年的12月由NeurIPS基金会主办,被中国计算机协会推荐为A类会议。
现如今,人们将深度学习运用到几乎所有领域,那些最“时髦的”领域包括计算机视觉、自然语言处理、语音分析、推荐系统以及预测系统。但是,有一个领域被大家遗忘在机器学习的角落,那就是信号分析(或时间序列分析)。本文中,将首先向大家展示信号和时间序列的重要性,接下来简要地回顾一下经典的方法,然后分享一下在Mawi公司运用深度学习处理信号的经验以及在算法交易领域的经验。
📷 来源:专知本文共1000字,建议阅读5分钟这本书介绍了使用Python进行时间序列分析。 📷 这本书介绍了使用Python进行时间序列分析。我们的目标是给您一个学科基本概念的清晰概述,并描述将适用
深度学习是机器学习的子集,它基于人工神经网络。学习过程之所以是深度性的,是因为人工神经网络的结构由多个输入、输出和隐藏层构成。每个层包含的单元可将输入数据转换为信息,供下一层用于特定的预测任务。得益于这种结构,机器可以通过自身的数据处理进行学习。
时间序列预测任务可以按照不同的方法执行。最经典的是基于统计和自回归的方法。更准确的是基于增强和集成的算法,我们必须使用滚动周期生成大量有用的手工特性。另一方面,我们可以使用在开发过程中提供更多自由的神经网络模型,提供对顺序建模的可定制的特性。
自监督学习(SSL)是一种机器学习方法,最近在各种时间序列任务上取得了令人印象深刻的表现。SSL最显著的优点是它减少了对标记数据的依赖。基于预训练和微调策略,即使是少量的标记数据也能实现高性能。
时间序列预测是机器学习中的一项常见的任务,具有非常广泛的应用,例如:电力能源、交通流量和空气质量等预测。传统的时间序列预测模型往往依赖于滚动平均、向量自回归和自回归综合移动平均。另一方面,最近有人提出了深度学习和矩阵分解模型来解决时间序列预测问题,并获得了更具竞争力的性能,但是该类模型往往过于复杂。
领取专属 10元无门槛券
手把手带您无忧上云