暂无搜索历史
时间序列,特点是数据点按离散时间顺序排列,在现实应用中无处不在。与其他模态不同,时间序列因其复杂和动态特性,包括非线性模式和时间变化趋势的纠缠,而呈现出独特的挑...
自2017年Transformer模型提出以来,自然语言处理研究逐步转向基于该框架的预训练模型,如BERT、GPT、BART和T5等。这些预训练模型与下游任务适...
图神经网络Transformers是一项机器学习的最新进展,提供了一类用于图结构数据的新型神经网络模型。Transformers与图学习的结合在各种图相关任务中...
本文综述了时间序列数据中的通用表示学习方法,提出了一种新颖的分类方法,并讨论了其对提高学习表示质量的影响。文章全面回顾了各种神经网络架构、学习目标和数据相关技术...
多模态大型语言模型(MM-LLMs)在过去一年取得了显著进步,通过优化模态对齐和与人类意图对齐,增强了现成的单模态基础模型(LLMs)以支持各种MM任务。本文对...
本文全面概述了深度学习用于时间序列异常检测的最新架构,提供了基于策略和模型的方法,并讨论了各种技术的优点和局限性。此外,还举例说明了近年来深度学习在时间序列异常...
本文对大型语言模型的压缩和效率推理进行了综述。大型语言模型基于Transformer架构,具有强大的性能,但也带来了巨大的内存和计算成本。本文从算法角度对大型语...
我们时常会面临这样的困境:时序算法发展已久,随着时序预测&检测算法模型越来越丰富,当新时序预测需求来临时,我应该如何从十几种模型中选择最适合该业务的模型?
本文综述了深度学习在时间序列预测中的应用,特别是在流行病预测领域。尽管深度学习在时间序列预测中表现出显著优势,但仍面临挑战,如时间序列不够长、无法利用积累的科学...
在互联网,AI浪潮的推动下,程序员已然成为新时代的民工,他们既享受着高薪的待遇,也承受着996、“青春饭”的很多压力。作为程序员你有职业焦虑吗?
自2006年深度学习概念被提出以来,20年快过去了,深度学习作为人工智能领域的一场革命,已经催生了许多具有影响力的算法或模型。那么,你所认为深度学习的最牛的模型...
在众多机器学习模型中,我们如何在各种实际情况下做出恰当的选择呢?本文我从如下几个方面系统地分析下~ 有帮助的话点个赞哦。
本文从数据为中心的角度,研究了数据收集、处理和分析如何有助于可解释的人工智能(XAI)。将现有工作分为三类,分别服务于对深度模型的解释、对训练数据的启示和对领域...
大型语言模型(LLMs)无疑是此次人工智能革命的核心,其构建于Transformer架构的坚实基础之上,并依据缩放定律(Scaling Law)不断进化。
少样本学习(Few-Shot Learning,FSL)是机器学习领域中的一种重要技术,其目标是在仅使用少量样本(例如50个或更少)的情况下,设计出能够高效学习...
大型语言模型(LLMs)在处理特定领域或高度专业化的查询时存在局限性,如生成不正确信息或“幻觉”。缓解这些限制的一种有前途的方法是检索增强生成(RAG),RAG...
时间序列预测可以使用经典预测方法和深度学习方法。经典预测方法如ETS、ARIMA等为每个时间序列独立地拟合模型,而深度学习方法在给定的数据集中学习时间序列。
本文综述了图神经网络(GNN)在图挖掘应用中的最新进展,并强调了其在低维表示中保留丰富知识的能力。然而,GNN在可靠性方面存在挑战,包括OOD泛化能力、公平性和...
机器学习模型有强大而复杂的数学结构。了解其错综复杂的工作原理是模型开发的一个重要方面。模型可视化对于获得见解、做出明智的决策和有效传达结果至关重要。
大模型无疑是此次AI革命的主角,大模型基于Scaling Law(缩放定律)。简单的说,就是数据越多,参数越大,算力越强,模型最终的能力就越强。随着模型参数和预...
暂未填写公司和职称
暂未填写个人简介
暂未填写技能专长
暂未填写学校和专业
暂未填写个人网址
暂未填写所在城市