首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

训练两足动物系统时奖励不会增加

训练两足动物系统时,奖励不会增加可能是由于以下原因:

  1. 训练算法问题:训练算法可能存在缺陷或错误,导致奖励无法增加。这可能是由于算法设计不合理、参数设置不当或者训练过程中的错误操作等原因导致的。
  2. 数据问题:训练数据可能存在问题,导致奖励无法增加。例如,训练数据可能不足或者不具有代表性,无法提供有效的反馈信息来引导系统学习和改进。
  3. 系统设计问题:系统设计可能存在缺陷,导致奖励无法增加。例如,系统可能缺乏足够的灵活性和适应性,无法根据奖励信号进行有效的调整和优化。
  4. 环境限制:训练过程中的环境可能存在限制,导致奖励无法增加。例如,训练环境可能过于复杂或者存在不可控因素,使得系统无法通过奖励来正确地学习和适应。

针对这个问题,可以采取以下措施来解决:

  1. 检查训练算法:仔细检查训练算法的实现和参数设置,确保算法的正确性和合理性。如果发现问题,可以尝试调整参数或者采用其他算法来改进训练效果。
  2. 收集更多有效的训练数据:增加训练数据的数量和质量,确保数据具有代表性和多样性。可以通过增加训练样本、引入更多的场景和情境等方式来改善数据质量。
  3. 优化系统设计:对系统进行优化,增加其灵活性和适应性。可以考虑引入更多的反馈机制、改进模型结构、增加模型的复杂度等方式来提升系统的学习和适应能力。
  4. 调整训练环境:如果训练环境存在限制或者不可控因素,可以尝试调整环境设置或者引入更合适的训练环境。例如,可以通过模拟环境或者控制实验条件来改善训练效果。

腾讯云相关产品和产品介绍链接地址:

  • 腾讯云机器学习平台(https://cloud.tencent.com/product/tiup)
  • 腾讯云数据集市(https://cloud.tencent.com/product/dataset)
  • 腾讯云人工智能开放平台(https://cloud.tencent.com/product/aiopen)
  • 腾讯云智能视频分析(https://cloud.tencent.com/product/vca)
  • 腾讯云智能语音合成(https://cloud.tencent.com/product/tts)
  • 腾讯云智能图像处理(https://cloud.tencent.com/product/tip)
  • 腾讯云智能音频处理(https://cloud.tencent.com/product/tap)
  • 腾讯云智能文本处理(https://cloud.tencent.com/product/nlp)
  • 腾讯云智能推荐(https://cloud.tencent.com/product/recommendation)
  • 腾讯云智能问答(https://cloud.tencent.com/product/qa)
  • 腾讯云智能机器翻译(https://cloud.tencent.com/product/mt)
  • 腾讯云智能语音识别(https://cloud.tencent.com/product/asr)
  • 腾讯云智能人脸识别(https://cloud.tencent.com/product/fr)
  • 腾讯云智能人体识别(https://cloud.tencent.com/product/body)
  • 腾讯云智能OCR(https://cloud.tencent.com/product/ocr)
  • 腾讯云智能语音评测(https://cloud.tencent.com/product/speech-evaluation)
  • 腾讯云智能语音分析(https://cloud.tencent.com/product/speech-analysis)
  • 腾讯云智能语音合成(https://cloud.tencent.com/product/tts)
  • 腾讯云智能语音识别(https://cloud.tencent.com/product/asr)
  • 腾讯云智能图像识别(https://cloud.tencent.com/product/ocr)
  • 腾讯云智能图像处理(https://cloud.tencent.com/product/tip)
  • 腾讯云智能图像搜索(https://cloud.tencent.com/product/image-search)
  • 腾讯云智能图像分析(https://cloud.tencent.com/product/image-analysis)
  • 腾讯云智能图像生成(https://cloud.tencent.com/product/image-generation)
  • 腾讯云智能图像编辑(https://cloud.tencent.com/product/image-editing)
  • 腾讯云智能图像增强(https://cloud.tencent.com/product/image-enhancement)
  • 腾讯云智能图像识别(https://cloud.tencent.com/product/ocr)
  • 腾讯云智能图像处理(https://cloud.tencent.com/product/tip)
  • 腾讯云智能图像搜索(https://cloud.tencent.com/product/image-search)
  • 腾讯云智能图像分析(https://cloud.tencent.com/product/image-analysis)
  • 腾讯云智能图像生成(https://cloud.tencent.com/product/image-generation)
  • 腾讯云智能图像编辑(https://cloud.tencent.com/product/image-editing)
  • 腾讯云智能图像增强(https://cloud.tencent.com/product/image-enhancement)
页面内容是否对你有帮助?
有帮助
没帮助

相关·内容

真的超越了波士顿动力!深度强化学习打造的 ANYmal 登上 Science 子刊

然而,截至目前,式机器人领域的强化学习研究还主要局限于模仿,只有少数相对简单的例子被部署到真实环境系统中。...本文介绍了一种可以在模拟中训练神经网络策略并将其迁移到当前最先进式机器人系统中的方法,因此利用了快速、自动化、成本合算的数据生成方案。...该方法被应用到 ANYmal 机器人中,这是一款中型犬大小的四复杂机器人系统。...第二步是训练一个致动器网络,建模复杂的致动器/软件动力机制。第三步是利用前步中得到的模型训练一个控制策略。第四步是直接在物理系统中部署训练好的策略。 结果 该视频展示了结果和方法。...这种建模技术可以准确地捕获一系列刚体和环境进行硬接触的真实动力机制。该求解器能准确而快速地在台式计算机上每秒生成模拟四动物的 90 万个时间步。 连接的惯性是从 CAD 模型估计出来的。

89330

“机器狗”比狗还灵巧:一口气爬90°直梯不在话下,了解一下?

为了使机器人能够达到生物学的黄金标准,人们花了很长时间才让四机器人学会所有动物能做的事情。 但是,机器人并不会被生物学所限制,这意味着机器人有潜力学习动物做不了的事情。...但这个能力目前只能针对特定的梯子,他们打算在接下来的研究中实现这一系统的普适化,让机器人不需要预先训练就可以攀爬新的梯子。 谷歌的搜索结果显示爬垂直梯子对于四动物是很困难的。...当梯子的倾角减小为0度,攀爬者的质心就越来越远离梯阶,因此攀爬者必须通过抓紧梯阶而不是站在上面来平衡自身重量,这对于抓力不强的动物是十分困难的。...大多数四机器人也不具备强大的抓力,但给机器人增加抓力系统是一个可以尝试的方向。...这一点他们会在之后的工作中改进,并使这个系统更加普适,让四机器人能够不用训练就可以攀爬新的梯子。

40420
  • DeepMind为何缺席GPT盛宴?原来在教小机器人踢足球

    不过,静态环境中的运动只是动物与人类部署其身体与世界交互的众多方式的一部分,这种运动形态已在很多研究全身控制和运动操纵的工作中得到验证,尤其是四机器人。...对手使用未经训练的策略进行初始化,因此,智能体在这个阶段学会避开对手,但不会发生进一步复杂的互动。此外,每个训练阶段的奖励及其权重如表 2 所示。...当智能体出界或在球门禁区内,它会在每个时间步受到固定的惩罚。 智能体训练好后,接下来就是将训练好的踢球策略零样本迁移到真实机器人。...为了提高零样本迁移成功率,DeepMind 通过简单的系统识别减少了模拟智能体与真实机器人的差距,通过训练期间的领域随机化和扰动提高了策略的鲁棒性,以及包括塑造奖励策略以获得不太可能损害机器人的行为。...而在模拟实验中,智能体在这项任务中的得分更加一致,这表明智能体的训练策略迁移到真实环境(包括真实机器人、球、地板表面等),性能略有下降,行为差异有所增加,但机器人仍然能够可靠地起身、踢球和得分。

    36360

    Science Robotics封面!DeepMind强化学习打造超一流机器人球员

    为了确保机器人能够实时掌握球场动态,研究团队还使用了实时运动捕捉系统,实时监测个机器人和球的位置。...在这个竞技场上,位「选手」——台仿人足球机器人,展开了激烈的较量。 球赛的规则为:进球者获得奖励,过于靠近对手则会受到惩罚。...他们首先训练个teacher策略,分别负责站立和射门,随后通过KL正则化方法将这个策略融合,形成一个student策略。 随着训练的深入,正则化逐渐减弱,最终行为得以自由优化任务奖励。...为此,研究团队在训练和仿真中加入了多种噪音,如观测噪音和仿真动力学模型扰动,以增强机器人的鲁棒性。 同时,他们还增加了仿真中的延迟,同时尽降低真实机器人控制软件中的延迟,确保机器人能够迅速响应。...鉴于机器人在进行动态踢踏运动,其齿轮容易受到瞬时冲击的影响,特别是膝盖部位容易因此受损。

    20010

    让机器狗站起来走步,科学家:站起来更方便干活

    但是,在机器人学和生物学领域都有一个巨大的、模糊的交叉点,你会发现动物在需要操纵某些东西,可以从四过渡到。...这种双化部件的机械部分是一个 3D 打印的支撑杆,被安装在四动物每条后腿的胫骨上,以提供额外的支持,使机器人能够站立和稳健地行走。如果没有胫骨附件,机器人就不会有静态稳定性。...同样地,动物从四条腿过渡到条腿的过程中所看到的与可操纵性有关的好处(例如,南方古猿用手把食物送到嘴里),对机器人来说也是存在的。...我们目前正在为前肢开发一个「可变末端作用器」,以使这种四机器人在站立、处理和操作物体成为一个「双臂操作器」。 IEEE Spectrum:你们为什么决定采用这种特殊的系统来实现双的转换?...另一方面,主动伸缩系统会在腿上增加一个微小的马达,增加腿在运动过程中的惯性矩,对性能产生负面影响。 IEEE Spectrum:这个系统的行走性能有什么限制?

    19620

    MIT「迷你猎豹」秒速3.9米刷新四机器人世界记录,但还是跑不过苏炳添

    比如,2019年中,既有波士顿动力的机器人耍后空翻,也有MIT的四机器猎豹耍后空翻,堪称业界热点、一瑜亮。...「强化学习能找到跑得快的解决方案,但由于其奖励功能不明确,它没有理由选择一种「看起来更自然」或「人类更喜欢的」步态。」研究者称。 当高速移动,它可能不是最优雅的姿态。...业界趋势:合成数据训练机器狗 教四机器人运动,此前无外乎是种途径: 摄像头等传感器搜集现实数据,然后码农手动编程处理数据; 或码农将传感器搜集的现实数据作为数据训练集,训练AI控制四机器人动作。...2021年起,加州大学伯克利分校的研究团队就在用模拟环境训练机器人Cassie。据称Meta的AI团队也在用模拟环境训练机器人。...机器猎豹在快跑冲刺,所有机件都出于满负荷运载状态,这时AI不会管是因为地面太滑要倒、还是螺丝松了要倒,给出的姿态解决方案只要达到“不会倒”的结果就好。

    69320

    模拟狗狗的“魔鬼步伐”,比更真还更真

    虽然只比人类多了条腿,但是四动物的“魔鬼步伐”却足以让人凌乱。要知道,在动画领域,想要创作一个四动物的角色,绝对是劳心劳力的一件苦差事。...由于灵活性增加系统可以通过非结构化运动捕捉数据,以端到端的方式,在各种非周期性/周期性操作中学习一致的专家权重。另外,用户也可以从标记不同步态中的相位这一复杂任务种解脱出来。...当制作四动物动画,动画师 (animator) 必须经过专门的训练才能设计各种复杂的动作。本质上,这种复杂性是来自于四动物的多种运动形式。...据我们所知,先前没有任何研究工作是基于数据驱动的方式来系统地构建四运动控制器。造成这个困难原因是上面提到的复杂性,以及四动物的运动数据采集,毕竟动物不会像人那样配合。...尽管我们的系统在运行时不需要运动模式的标签来控制角色,但我们分析了数据集中模式的分布。由于复杂的运动过渡状态和一些模棱可的情况,将数据分类为不同的运动模式是一件相对困难的操作。

    58510

    研究人员使用宽场脑成像技术研究意图控制,探索更好的脑机接口使用方式

    当熟练(经过多次训练后)的动物控制游标,较高的视觉皮层参与度更高。当老鼠控制游标,高级视觉皮层的个体神经元对游标的反应比被动观看游标更强烈,当游标接近目标位置,反应最强。...在第一种情况下有运动信号,而在第二种情况下没有,所以很难对者进行比较。使用BMIs,主体不会移动,所以可以进行更清晰的比较。...图(D)3只实验动物在1天的训练中被击中后,控制区域的DF/F值就会被触发,这表明动物在获得奖励时会使用不同的策略。粉色线表示击中目标的时间,灰色线表示奖励的交付时间。...在执行专家级任务,较高的视觉区域更活跃 专家级任务:需要训练很久才能熟练解决的任务 在训练的第1天(顶部一行)(动物此时是新手级别)与训练的第9天(底部一行),动物能够熟练地执行任务(专家级别)的激活地图...如上图(C)中可以看到高视觉区域的任务激活相对于V1的比例在训练过程中增加。当动物被动地观看同一阶段的回放,较高的视觉区域活动性较低。

    51020

    攀爬、跳跃、过窄缝,开源强化学习策略让机器狗能跑酷了

    一些研究尝试使用参考动物数据或复杂的奖励,但这些方法生成的「跑酷」技能要么多样但盲目,要么基于视觉但特定于场景。...论文地址:https://arxiv.org/abs/2309.05665 项目地址:https://github.com/ZiwenZhuang/parkour 方法简介 该研究推出了一种新的开源系统...,用于学习基于视觉的端到端跑酷策略,以使用简单的奖励来学习多种跑酷技能,而无需任何参考运动数据。...为了训练跑酷策略,该研究共进行了如下三个阶段的工作: 第一阶段:具有 soft 动态约束(dynamics constraint)的强化学习预训练。...实验及结果 在训练中,该研究为每种技能设置了相应的障碍物尺寸,如下表 1 所示: 该研究进行了大量的模拟和现实实验,结果表明,跑酷策略使低成本四机器人能够自主选择和执行适当的跑酷技能,仅使用机载计算

    52350

    Nature neuroscience:眶额皮层对纹状体的控制导致了经济决策

    然而,当动物做出错误的选择,我们观察到,尽管预测的选择参数达到了与正确试验相似的水平,但在DMS之前,OFC的预测选择参数并没有增加。...此外,虽然OFC的光遗传抑制并不影响单一感觉动物的行为在控制任务中,动物使用相同的单一线索来指导动物在选择任务中的种不同行为之间的决策,光遗传抑制会严重损害行为。...奖励收集之后是一个5-10秒的可变试验间隔(ITI)。如果动物对错误的一面做出反应,就不会得到奖励,屏幕在10秒的暂停时间内变成白色。这教会了动物们移动到提示的一侧,以指示反应,并加强偶然性。...让动物恢复2-3周后,再恢复行为训练。微驱动器在每次录音开始前2天被降低了250 μm。使用无线采集系统(白质LLC)在20 kHz条件下采集电生理数据。...使用开放的Ephys采集系统在30 kHz获取行为时间戳。通过对每个开放的Ephys样本向白质LLC采集系统发送一个信号来同步时钟。

    35110

    谷歌AI为达目的,把自己的身体改造成了这样……

    从前的智能体,形状结构大都是固定的,只关注策略训练。可是,系统预先设定的身材,通常都不是 (针对特定任务) 最理想的结构。 因此,如同上文所说,策略要学,身材优化也要一起学。 ?...△ 左为原始,右为身材训练后 (红线代表激光雷达) 然后,进入绿地场景 (BipedalWalker-v2,基于Box2D,属于Gym) 。这里的智能体是的,在“激光雷达”的指引下往前走。...重点是,在这副新身材诞生的过程中,AI已学会了通关策略,耗时仅12小。对比一下,不做身材优化的原始训练方法,用时长达40小 (前馈策略网络,96个GPU) 。...△ 错误示范 有些动物在脑死亡之后,依然可以蹦跳,依然可以游泳。 也就是说,生物体的许多行为,并不依赖大脑。...有种叫做体验认知 (Embodied Cognition) 的理论认为,认知的许多特征,都不是大脑独自决定:生物体的方方面面,如运动系统、感知系统、生物体与环境的相互作用等等,都会对认知产生影响。

    54150

    让人恐惧的是,机器狗已经能做这种事了

    机器之心报道 编辑:小舟 只用一个神经网络实现操纵,四机器人的重大技术突破。...机器狗还可以做一些真实世界里动物难以完成的事,比如仅用条前腿行走,相当于倒立行走: 还能仅用条前腿下楼梯: 像在游戏里面卡了 bug,有点滑稽,又带有一点点恐怖谷效应。...为了让机器狗在部署根据障碍物类型进行自我调整,该研究提出了一种新颖的双重蒸馏(dual distillation)方法。该策略不仅能输出灵活的运动命令,还可以根据输入深度图像快速调整方向。...为了让单个神经网络能够表征不同的跑酷技能行为,该研究提出了一种基于内积的简单而有效的通用奖励设计原则。 具体来说,该研究旨在训练一个直接从原始深度和机载传感到关节角度命令的神经网络。...实验结果 该研究主要让机器狗掌握 4 种技能,包括攀爬、跳过间距、在斜坡上跑跳、倒立,与其他几种方法的比较结果如下表 1 所示: 为了验证系统中各部分的作用,该研究提出了组基线。

    25260

    Deepmind“预测地图”论文背后:神经科学或将助力AI迎来新突破

    这种观点在发现啮齿动物的海马体中的“位置细胞”后被广泛传播,当动物处于特定位置,它们会选择性地放电。...,从而快速适应奖励变化。”...(老鼠在探索方形房间记录下来的海马体每个位置细胞的活动及放电率的变化) 这并不是Deepmind的第一篇神经科学用于人工智能的论文,在此之前Deepmind就表过至少篇创始人Hassabis为作者的神经科学论文...这个阶段的连接理论最初被称为分布式并行处理PDP (parallel distributed processing),他们以人工神经网络为工具方法,引领着神经科学和人工智能领域的发展,与行为学派和符号学派三鼎立...随之而来的问题是,如果要模拟人类大脑数量如此庞大的神经元,可能需要对几百甚至上千个参数进行调节,如何对这样复杂的网络进行训练呢?Hinton等人的发现是,通过反向传播算法可以解决多层网络的训练问题。

    86280

    不用摄像头和激光雷达,四机器人「凭感觉」越野:ANYmal登上Science子刊封面

    强化学习方向的观点是调整控制器以优化给定的奖励函数。优化是通过执行控制器本身获取的数据来执行的,这会随着经验的增加而改进。...该控制器被用于 ANYmal 四机器人的代版本中。四机器人在泥土、沙子、瓦砾、茂密的植被、雪地、水中和其他越野地形中安全地小跑。...新的模型在训练中分为个阶段,首先训练教师策略,该策略可访问特权信息——真实情况(ground-truth)及机器人接触的情况,随后教师指导纯本体感受的学生控制器学习,后者仅使用机器人本身可用的传感器信息...训练环境的挑战性逐渐增加,促使了这种敏捷性与弹性兼具的全方位控制器的诞生。 借助腿式运动控制器,机器人可以穿越一些现有方法无法到达的复杂地形。...然而,当控制器被部署在四机器人上,它能够成功应对可变化地形(比如泥土、苔藓、雪地)、动态立足点(比如在杂乱室内环境踩到滚动板、田野中的碎片)和地面障碍物(厚植被、碎石、涌出的水)。

    46010

    LeCun新作:分层世界模型,数据驱动的人型机器人控制

    就拿简单的学走路来说,利用强化学习来训练可能会演变成下面这样: 道理上没什么问题(遵循奖励机制),上楼梯的目标也达到了,除了过程比较抽象,跟大部分人类的行为模式可能不太一样。...机器人之所以很难像人一样「自然」行动,原因在于观察和行动空间的高维性质,以及双动物形态固有的不稳定性。 对此,LeCun参与的一项工作给出了基于数据驱动的全新解决方案。...作者提出了一个分层世界模型,训练高级和低级个智能体,高级智能体根据视觉观察生成命令,供低级智能体执行。...Puppeteer使用基于模型的RL算法——TD-MPC2,在个不同的阶段独立训练个智能体。...这个框架看上去大道至简:个世界模型在算法上是相同的,只是在输入/输出上不同,并且使用RL进行训练,无需其他任何花里胡哨的东西。

    15110

    AI科学家们,有驯兽师要向你们传授点必看的人生经验

    李林 编译整理 量子位 出品 | 公众号 QbitAI 训练人工智能系统,和驯兽很像。...她最近写了篇《理解动物能如何帮我们充分利用人工智能》,向AI科学家们传授了点人生经验: 1....总把AI讲得像外星人一样,对科普没什么帮助;和我们训练过的小动物做个类比,倒是正合适。 Heather举了个用增强学习方法来训狗的例子。...当狗正确地听从命令坐下,就表扬它、给它奖励,长此以往,它就学会了命令-行为-奖励这三者之间的联系。...人类在训狗不会指望狗理解“爱”、“好”这种复杂的概念,只希望它掌握一种行为方式。同样,我们也可以让AI系统学会在公共道路上移动汽车,但指望它们去“解决”电车难题之类的道德问题,就想太多了。 2.

    64260

    超酷的神经网络合成动物运动动画,解救动画师!(代码开源+视频)

    动物动画在电脑游戏和电影中的应用很重要,同时也是机器人领域的一个具有挑战性的话题。传统方法制作四动物动画,动画师必须经过特殊培训,设计出各种复杂的动作,然后利用各种DCC软件进行动作捕捉。...视频介绍: 模式自适应神经网络 四动物运动的多模态造成了动画制作的复杂性。四动物有多种移动模式,例如步行、踱步、快走、慢跑、疾跑等,运动其躯干和四肢的相位变化非常复杂。 图:不同的四运动模式。...目前还没有以数据驱动的方式系统地构建四动物运动控制器的工作。除了上面提到的运动复杂性外,困难还来源于四动物与人类不同,无法进行受控的数据采集。因此,捕获的数据往往不是结构化的。...该研究的贡献可概括如下: 提出第一个构建数据驱动的四角色控制器的系统方法,它可以合成具有各种运动模式和动作转换的高质量动画。...数据准备和结果 研究人员使用狗的动作捕捉(Dog Motion Capture)作为训练数据。

    2K30

    Hinton预言的「AI将拥有常识」如何实现?剑桥最新研究:从小狗学起

    训练宠物一样训练智能体 在著名的伊索寓言中,试验者要求鸟类将物体投入装有水和浮动食物的玻璃管中,提升水位,来获取食物。 训练动物的过程,通常包含着目标和奖励。...比如说训练小狗,动作做的对,就奖励他食物,这和运用深度强化学习训练智能体的方式有相似之处。...实验中,研究人员将测试场景中的动物和强化学习智能体进行类比,用一种新的方法来测试人工智能系统的认知能力。《人工智能与动物常识》一文细讲述了对鸟类和灵长类动物的认知实验。...松鼠会想办法撬开坚果的外壳,获取里面的果实;某些鹦鹉也十分擅长从各种容器中提取食物;当看到裂缝,孔洞或破裂之类的东西,有的动物会作出「我要打开它」的反应。 这是为什么?...而且,这些理解被深深地刻进头脑,并不会随着时间的推移而发生改变。 然而,动物所表现出来的常识,很可能就包含对奖励的认知。 「如何构建这样的人工智能技术仍然有待解答。

    49230

    只要你的AI算法能比小白鼠聪明,DeepMind的这20万奖金请拿走

    DeepMind就以动物认知测试为基础开发了一套强化学习任务集Animal-AI,用来供开发者测试自己的AI模型实用性。 前天,Animal-AI2.0版本上线,并且在Github开源。 ?...当然不是,真实的世界要复杂地多,在面对复杂任务动物的表现往往优于AI。 比如下图,简单的把食放在一个透明管中,狗能明白把头伸进管子里就能获得食物,而一个强化学习AI完全懵了。 ? ?...DeepMind研究人员基于动物认知的研究开发了这个测试环境,旨在让强化学习算法的开发者,通过动物的行为模式中获得启发,改善算法性能。 这个项目包含了训练环境、训练库以及900个测试和/或训练任务。...其中包含一个固定大小的竞技场,和一个已经训练好的模型。 竞技场中包含各种物体,包括正负奖励(绿色、黄色和红色球体)、障碍物、雷区、不同的地形等。你的AI任务是在场地中收集正激励(黄绿球)。...再增加难度,使环境更复杂,可以看到AI直接卡死在角落里了: ? 一个Y型迷宫: ? 工具使用(这个任务中,AI必须使用跷跷板才能收集到食物): ?

    22710

    神经网络“天生”就会驾驶虚拟赛车

    计算机科学家Adam Gaier说:“如果动物具有所有这些固有的行为,并且某些神经网络在没有大量训练的情况下就能很好地发挥作用,那么我们想知道我们能将这一想法推进多远。”...它针对问题类型对网络进行评估,对网络性能进行优化,通过增加神经元或者说更改神经元对求输入的敏感程度来实现突变。在评估阶段,系统会为网络的所有权重分配一个共享的随机数。...研究团队将WANNs与标准网络体系结构进行了比较,这些标准网络体系结构根据经验调整权重,可以完成三个模拟任务:驾驶赛车,使机器人行走,控制轮式推车以平衡杆位。...WANNs的得分大约是训练有素的神经网络的六分之一到一半,当研究人员分配最佳权重而不是随机权重,则得分介于训练后的神经网络得分的三分之二至五分之四。...在涉及识别手写数字的任务中,WANN的准确率超过90%(相比之下,接受该任务训练的较大网络的准确率则为99%),该研究于上个月在加拿大温哥华的神经信息处理系统(NeurIPS)会议上发表。

    36510
    领券