强化学习领域近期取得的很多成就都是通过无模型强化学习算法 [1,2,3] 实现的。无模型(MF)算法倾向于实现最佳性能,通常可应用且易于实现。
选自BAIR 作者:Anusha Nagabandi、Gregory Kahn 机器之心编译 参与:Panda 伯克利人工智能研究实验室(BAIR)博客近日介绍了一种使用神经网络动态的基于模型的强化学
让机器人在现实世界中自主行动是很困难的。即使拥有昂贵的机器人和世界级的研究人员,机器人在复杂的、非结构化的环境中仍然难以自主导航和交互。 图1:一个学习的神经网络动态模型使一个六足机器人能够学习运行和
某医院拟委托软件公司开发一套预约挂号管理系统,以便为患者提供更好的就医体验,为医院提供更加科学的预约管理。本系统的主要功能描述如下:
三、动态面板数据及Eviews实现 (1)动态面板数据简介 在现实社会中,很多经济关系是动态的,有时需要引入滞后项去解释这些经济关系。动态面板数据模型,即面板数据模型的解释项中纳入被解释变量的滞后项,
面板数据与Eviews操作指南(下) 三、动态面板数据及Eviews实现 (1)动态面板数据简介 在现实社会中,很多经济关系是动态的,有时需要引入滞后项去解释这些经济关系。动态面板数据模型,即面板数据
大家好,欢迎来到我们的星球知识小卡片专栏,本期给大家分享模型压缩中的一个非常重要的方向,动态模型。
Danier 首先介绍了项目的背景。视频插帧(VFI) 任务,即在视频中给定两个连续的帧 I0 和 I1,以生成不存在的中间帧 It,其中 t 通常是 0.5,用于两倍时域上采样。
首先来看引言部分,概述了在视觉表示学习领域的主流研究集中于捕捉个别图像的语义和2D结构的现状,并指出本研究的重点是同时捕捉场景的3D结构和动态,这对于规划、空间和物理推理以及与现实世界的有效互动至关重要。文章强调了最近在3D视觉场景的生成模型方面取得的进展,特别是从使用体素网格、点云或纹理网格等显式表示转向通过直接优化新视图合成(NVS)来学习隐式表示的转变。如神经辐射场(Neural Radiance Fields)虽然最初限于单一场景并需要大量输入图像、控制的照明、精确的相机姿态和长时间的处理,但随后已被扩展以处理照明变化、跨场景泛化、少量图像工作、缺失相机和动态场景。
关于人工智能体如何随时间推移提升自己决策的研究正借助强化学习(RL)取得快速进展。在这项技术中,智能体在选择动作(如运动指令)时观察一系列感官输入(如相片),有时会因为达到某个特定目标而得到奖励。RL 无模型方法旨在从感官观察结果中直接预测良好的动作,使得 DeepMind 的 DQN 可以玩 Atari 游戏、其它智能体能够控制机器人。然而,这种黑箱方法通常需要经过数周的模拟交互才能通过反复试验来学习,这限制了它在实践中的应用。
图1.经过学习的神经网络动态模型能使一个六足机器人学会遵循既定的轨迹运行,并且只需要17分钟的实际经验。
今天给大家介绍北京大学计算语言学教育部重点实验室的Zewei Zhao和Houfeng Wang在AAAI 2020发表的文章“MaskGEC: Improving Neural Grammatical Error Correction via Dynamic Masking”。作者在文章中提出了一种通过动态掩蔽改进基于神经机器翻译的语法纠错模型的方法,该方法解决了模型对“错误-正确”句子对的语料库的需求。
最近我们被客户要求撰写关于马尔可夫区制转换动态回归的研究报告,包括一些图形和统计输出。
ARMA提出了一种新颖的图神经网络(GNN)模型,旨在解决动态图预测中的问题。动态图是指随着时间推移,图中的节点和边关系会发生变化的情况。这种动态性带来了挑战,因为传统的静态图模型无法捕捉到图的演变过程。ARMA采用自适应递归矩阵完成技术,通过递归地预测动态图的演化过程,从而实现对动态图的预测。
本文估计实际GDP增长率的两状态Markov区制转换动态回归模型 (点击文末“阅读原文”获取完整代码数据)。
Dynamic inference by model reduction 2023.09.10.557043v1.full
自COVID-19疫情爆发以来,基于图神经网络(Graph Neural Networks, GNNs)的流行病学建模研究得到了广泛的关注。传统机理模型在数学上描述了传染病的传播机制,但在应对当前复杂多变的流行病学挑战时常显不足。得益于对复杂网络的捕捉能力,GNNs逐渐成为流行病学研究中的重要工具。
一组神经元可以产生代表刺激信息的活动模式;随后,该小组可以通过突触将活动模式转换和传递到空间分布区域。神经科学的最新研究已经开始独立处理信息处理的两个组成部分:刺激在神经活动中的表示和模拟神经相互作用的网络中的信息传输。然而,直到最近,研究才试图将这两种方法联系起来。在这里,我们简要回顾一下这两种不同的文献;然后,我们回顾了最近在解决这一差距方面取得的进展。我们继续讨论活动模式如何从一种表示演变到另一种表示,形成在底层网络上展开的动态表示。我们的目标是提供一个整体框架来理解和描述神经信息的表达和传递,同时揭示令人兴奋的前沿领域未来的研究。
本文蕴藏杀机,PowerBI DAX 设计的诸多精华尽在一个模型,推荐仔细阅读。上篇文章写得少得可怜,很多战友提出严重抗议,要求继续揭示这其中的奥秘,好吧,你吩咐,我照办。
昨晚分享的可以替代Matlab的几款开源科学计算软件(可以替代Matlab的几款开源科学计算软件),后台有读者留言说modelica,但本质上modelica不属于科学计算软件范畴,他属于系统仿真系列,故本文分享一些可以替代Simulink的几款开源系统仿真软件
🍉 CSDN 叶庭云:https://yetingyun.blog.csdn.net/
人们对研究大脑功能连接的时间重构以理解动态交互的作用(例如,整合和分离)。然而,区分各种动态属性至关重要,因为几乎所有现有的动态连通性研究都是作为时空动态呈现的,尽管它们属于不同的类别。结果,功能结构的空间模式的变化没有得到很好的表征。在这里,我们提出了空间、时间和时空动力学的概念,并使用这个术语对现有的方法进行分类。我们回顾了当前的空间动态连接工作,强调将空间明确纳入动态分析可以扩展我们对大脑功能和紊乱的理解。
今天给大家介绍加拿大蒙特利尔大学的著名学者唐建等人发表的一篇文章。作者在文章中针对现有的图动力学建模方法不能明确地捕捉到时间上的社区动态这一问题,提出了通过在轨迹上施加随机游走来学习生成不断发展的节点和社区表示的概率模型-GRADE。同时该模型还学习了通过过渡矩阵在时间步长之间进行更新的节点社区成员身份。实验表明,GRADE在动态链接预测中达到或超过基线模型,在动态社区发现方面显示出良好的性能,并且能识别出连贯且可解释的不断发展的社区。
Li, Y., Guan, Q.*, Gu, J. & Jiang. X. (2024) A deep reinforcement learning with dynamic spatio-temporal graph model for solving urban logistics delivery planning problems, International Journal of Digital Earth, 17(1): 2376273. DOI: 10.1080/17538947.2024.2376273.
ICML 2024高分论文,彩云科技团队构建DCFormer框架,替换Transformer核心组件多头注意力模块(MHA),提出可动态组合的多头注意力(DCMHA)。
机器之心专栏 机器之心编辑部 在领域泛化 (Domain Generalization, DG) 任务中,当领域的分布随环境连续变化时,如何准确地捕捉该变化以及其对模型的影响是非常重要但也极富挑战的问题。为此,来自 Emory 大学的赵亮教授团队,提出了一种基于贝叶斯理论的时间域泛化框架 DRAIN,利用递归网络学习时间维度领域分布的漂移,同时通过动态神经网络以及图生成技术的结合最大化模型的表达能力,实现对未来未知领域上的模型泛化及预测。本工作已入选 ICLR 2023 Oral (Top 5% amon
自大型语言模型(LLM)出现以来,它们便在各种自然语言任务上取得了显著的效果。不过,大型语言模型需要海量的计算资源来训练。因此,业界对构建同样强大的中型规模模型越来越感兴趣,出现了 LLaMA、MPT 和 Falcon,实现了高效的推理和微调。
选自arXiv 作者:Matthew Tesfaldet等 机器之心编译 参与:路、李泽南 图画总是只能表现事物瞬间的形象,而动画则需要逐帧手绘,费时费力,人工智能是否能够帮助我们解决这一困难?近日,来自加拿大约克大学、Ryerson 大学的研究者们提出了使用「双流卷积神经网络」的动画生成方法,其参考了人类感知动态纹理画面的双路径模式。该动画生成模型可以参考相关视频,让一张静态图片变成效果逼真的动画。目前,该研究的论文已被 CVPR 2018 大会接收,相关代码也已公开。 项目展示页:https://rye
本文来自SMPTE2019的演讲,演讲者是来自harmonic的高级产品销售经理Jean-Louis Diascorn。演讲主题是AI技术对广播和OTT内容分发中视频压缩的改善。
当 4K 画质、60 帧视频在某些 APP 上还只能开会员观看时,AI 研究者已经把 3D 动态合成视频做到了 4K 级别,而且画面相当流畅。
很多会员伙伴问,ABC分析的2.0版已经出了,那什么时候出RFM的2.0版呢?现在。
基于深度神经网络的机器学习模型在很多任务上达到了前所未有的性能。这些模型一般被视为复杂的系统,很难进行理论分析。此外,由于主导最优化过程的通常是高维非凸损失曲面,因此要描述这些模型在训练中的梯度动态变化非常具有挑战性。
之前写过一个性能测试框架中QPS取样器实现,总体思路是通过一个异步工具类com.funtester.frame.execute.Progress来统计各个线程自己的统计数据(响应时间),然后再依据线程数计算实时的QPS。
本书旨在对数学建模领域进行一般性介绍,涵盖了从优化到动态系统到随机过程的广泛建模问题。强调原则和一般技术为学生提供了他们在各种学科中模拟现实问题所需的数学背景。
编者按:轻量级卷积神经网络能够在较低的计算预算下运行,却也牺牲了模型性能和表达能力。对此,微软 AI 认知服务团队提出了动态卷积,与传统的静态卷积(每层单个卷积核)相比,根据注意力动态叠加多个卷积核不仅显著提升了表达能力,额外的计算成本也很小,因而对高效的 CNN 更加友好,同时可以容易地整合入现有 CNN 架构中。
今年 5 月,Open AI 发布了非常擅长「炮制出类似人类的文本」的 GPT-3,拥有破天荒的 1750 亿参数,一时被业界视为最强大的人工智能语言模型。
今天为大家介绍的是来自Ileana. M. Cristea团队的一篇论文。蛋白-蛋白相互作用(PPIs)推动细胞过程和对环境的反应,反映了细胞状态。在这里,作者开发了Tapioca,一个用于研究动态环境中全局PPIs的集成机器学习框架。
由于计算硬件和数据工程的发展,作为计算机视觉中的基础组成部分,大规模视觉预训练取得了令人瞩目的进展。预训练的视觉模型可以作为表示学习器,并迁移到下游任务中,如图像识别和目标检测。
AI 机器学习 (ML) 和深度学习 (DL) 正在成为解决机器人、零售、医疗保健、工业等各个领域的各种计算问题的有效工具。对低延迟、实时响应和隐私的需求已经推动了在边缘运行 AI 应用程序。
机器之心发布 机器之心编辑部 在本文中,本土独角兽依图科技提出了一个小而美的方案——ConvBERT,通过全新的注意力模块,仅用 1/10 的训练时间和 1/6 的参数就获得了跟 BERT 模型一样的精度。相比费钱的 GPT-3,这项成果可让更多学者用更少时间去探索语言模型的训练,也降低了模型在预测时的计算成本。本文已被 NeurIPS 2020 接收。 今年 5 月,Open AI 发布了非常擅长「炮制出类似人类的文本」的 GPT-3,拥有破天荒的 1750 亿参数,一时被业界视为最强大的人工智能语言模型
每天给你送来NLP技术干货! ---- 机器之心报道 编辑:蛋酱 在这项研究中,斯坦福大学的一个研究小组提出了时间控制 (TC),这种语言模型通过潜在的随机过程进行隐式计划,并生成与该潜在计划一致的文本,以提高长文本生成的性能。 近年来,包括 GPT-2 在内的大型语言模型在文本生成方面非常成功,然而,大型语言模型会生成不连贯的长文本。一个原因是不能提前计划或表征长段文本动态。因此,它们常常产生游离的内容,语篇结构差,关联性低 ; 文本在生成时似乎没有锚定目标。当自回归模型生成更长的文本时,这些连贯性问题进
摘要:Transformers已成为大型语言模型(LLM)的支柱。然而,由于需要在内存中存储过去标记的键值表示缓存,其大小与输入序列长度和批量大小成线性比例,因此生成效率仍然很低。作为解决方案,我们提出了动态内存压缩(DMC),这是一种在推理时在线压缩键值缓存的方法。最重要的是,该模型可以学习在不同的头和层中应用不同的压缩率。我们将预训练的 LLM(如 Llama 2(7B、13B 和 70B))改装成 DMC Transformers,在英伟达 H100 GPU 上实现了高达 ~3.7 倍的自动回归推理吞吐量提升。DMC 通过持续预训练应用于可忽略不计的原始数据百分比,而不添加任何额外参数。我们发现,DMC 保持了原有的下游性能,缓存压缩率高达 4 倍,优于向上训练的分组查询注意(GQA)。GQA 和 DMC 甚至可以结合使用,以获得复合增益。因此,在任何给定的内存预算内,DMC 都能适应更长的上下文和更大的批次。
– 比较分析C++、Java、Python、R语言的面向对象特征,这些特征如何实现的?有什么相同点?
动态数据驱动仿真是一种“模型和数据相结合”的仿真范式,它将真实系统的观测(数据)持续注入仿真(模型),让数据动态地校正仿真(状态、参数),以此来提高基于仿真的估计和预测能力。由于动态数据驱动仿真融合了模型预测和实时观测两方面的信息,因此它能更准确地估计系统状态并预测状态的未来演化。本文梳理了动态数据驱动仿真的思想起源和基本概念,延伸介绍了“模型和数据相结合”的思想孕育的一系列仿真范式,并辨析了它们之间的联系和区别;详细介绍了基于粒子滤波的数据同化方法和identical-twin仿真实验方法;从应用场景、模型和数据、数据同化算法、与新技术的融合等四个维度综述了动态数据驱动仿真的研究现状;最后,从仿真模型、观测数据、数据同化、运行效率、应用领域等五个方面对动态数据驱动仿真未来研究方向进行了展望。
多模态融合的动机在于联合利用来自不同模态的有效信息提升下游任务的准确性和稳定性。传统的多模态融合方法往往依赖高质量数据,难以适应现实应用中的复杂低质的多模态数据。
选自arXiv 作者:Xiaodan Liang、Hongfei Zhou、Eric Xing 机器之心编译 参与:乾树、路雪 近日,来自 CMU、Petuum 等机构的研究者提出一种新型语义分割模型动态结构化语义传播网络 DSSPN,通过将语义概念层次明确地结合到网络中来构建语义神经元图。实验证明 DSSPN 优于当前最优的分割模型。 引言 随着卷积神经网络的不断进步,目标识别和分割作为计算机视觉的主要研究方向取得了巨大的成功。然而,目前使用更深、更宽网络层的分割模型 [24,5,40,37,22] 在对
人脑的神经网络结构模式可能与个体在表型、行为、遗传决定因素和神经精神障碍的临床结果方面的差异有关。最近的研究表明,个性化的神经(大脑)指纹可以从大脑的结构连接体中识别出来。然而,个性化指纹在认知方面的准确性、可重复性和翻译潜力尚未完全确定。在本研究中,我们引入了一种动态连接体建模方法来识别一组关键的白质子网络,可以用作个性化指纹。我们进行了几个个体变量评估,以证明个性化指纹的准确性和实用性,特别是预测中年成年人的身份和智商,以及幼儿的发育商。我们的发现表明,我们的动态建模方法发现的指纹足以区分个体,也能够预测整个人类发展的一般智力能力。
---- 新智元报道 编辑:LRS 【新智元导读】文本到2维图像、2维视频、3维模型,现在终于发展到3维模型视频了! AI生成模型在过去这段时间里取了巨大的进展,就图像领域来说,用户可以通过输入自然语言提示来生成图像(如DALL-E 2,Stable Diffusion),也可以在时间维度上扩展生成连续的视频(如Phenaki),或者在空间维度上扩展直接生成3D模型(如Dreamfusion)。 但到目前为止,这些任务仍然处于孤立的研究状态,彼此之间不存在技术交集。 最近Meta AI的研究人员结
在之前的动态模型之动态增减【FunTester测试框架】中分享了动态的性能测试模型的实现,后面在实际工作中也是受益匪浅,有文为证动态压测模型让工作更轻松。
领取专属 10元无门槛券
手把手带您无忧上云