首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

如果均匀成本搜索是最优的,那么为什么我们需要深度A*搜索

均匀成本搜索(Uniform Cost Search)是一种图搜索算法,它在搜索过程中考虑了路径的成本,并尝试找到一条成本最小的路径。然而,即使均匀成本搜索是最优的,我们仍然需要深度A搜索(Depth-First A Search)来解决一些特定的问题。

深度A搜索是一种启发式搜索算法,它结合了深度优先搜索和A搜索的特点。A搜索算法通过使用启发函数来估计从当前节点到目标节点的成本,并选择具有最小估计成本的节点进行扩展。深度A搜索在进行深度优先搜索的同时,使用启发函数来指导搜索方向,以期望更快地找到最优解。

尽管均匀成本搜索是最优的,但它可能会在搜索空间中扩展大量的节点,尤其是在图中存在大量成本相等的路径时。这会导致搜索时间较长,尤其是在资源受限的情况下。而深度A*搜索通过使用启发函数来引导搜索,可以更加聚焦地搜索具有更高潜在成本的路径,从而减少搜索空间的扩展,提高搜索效率。

需要注意的是,深度A*搜索并不是在所有情况下都比均匀成本搜索更优。它适用于那些具有启发信息的问题,即可以通过启发函数估计路径成本的问题。对于没有明确启发信息的问题,均匀成本搜索可能仍然是更合适的选择。

总结起来,尽管均匀成本搜索是最优的,但深度A*搜索在某些具有启发信息的问题上可以提供更高的搜索效率。选择使用哪种搜索算法取决于具体的问题和搜索需求。

页面内容是否对你有帮助?
有帮助
没帮助

相关·内容

  • CVPR 2021 | AttentiveNAS:通过注意力采样改善神经架构搜索

    神经结构搜索(NAS)在设计最先进的(SOTA)模型方面表现出了巨大的潜力,既准确又快速。近年来,BigNAS 等两阶段 NAS 将模型训练和搜索过程解耦,取得了良好的搜索效率。两阶段 NA S在训练过程中需要对搜索空间进行采样,这直接影响最终搜索模型的准确性。尽管均匀抽样的广泛应用是为了简化,但它不考虑模型性能的帕累托前沿,而帕累托前沿是搜索过程中的主要关注点,因此错过了进一步提高模型精度的机会。在这项工作中,我们建议关注于采样网络,以提高性能的帕累托。在训练过程中,本文还提出了有效识别帕累托网络的算法。无需额外的再训练或后处理,就可以通过广泛的 FLOPs 同时获得大量的网络。本文发现的模型家族 AttentiveNAS 模型在 ImageNet 上的准确率最高,从77.3%到80.7%,优于包括 BigNAS、Once-for-All networks 和 FBNetV3 在内的 SOTA 模型。并且本文还实现了 ImageNet 的精度为80.1%,只需491 MFLOPs。

    02

    EfficientNet解析:卷积神经网络模型规模化的反思

    自从Alexnet赢得2012年的ImageNet竞赛以来,CNNs(卷积神经网络的缩写)已经成为深度学习中各种任务的事实算法,尤其是计算机视觉方面。从2012年至今,研究人员一直在试验并试图提出越来越好的体系结构,以提高模型在不同任务上的准确性。近期,谷歌提出了一项新型模型缩放方法:利用复合系数统一缩放模型的所有维度,该方法极大地提升了模型的准确率和效率。谷歌研究人员基于该模型缩放方法,提出了一种新型 CNN 网络——EfficientNet,该网络具备极高的参数效率和速度。今天,我们将深入研究最新的研究论文efficient entnet,它不仅关注提高模型的准确性,而且还关注模型的效率。

    03

    每日论文速递 | AutoLoRA:通过meta learning学习LoRA最优秩

    摘要:在各种 NLP 任务中,大规模预训练和针对特定任务的微调取得了巨大成功。由于对大型预训练模型的所有参数进行微调会带来巨大的计算和内存挑战,人们开发出了几种高效的微调方法。其中,低秩适应(Low-rank adaptation,LoRA)在冻结的预训练权重基础上对低秩增量更新矩阵进行微调,已被证明特别有效。然而,LoRA 在所有层中统一分配秩,并依赖穷举搜索来找到最佳秩,这导致了高计算成本和次优的微调性能。为了解决这些局限性,我们引入了 AutoLoRA,这是一种基于元学习的框架,用于自动识别每个 LoRA 层的最佳等级。AutoLoRA 将低秩更新矩阵中的每个秩-1 矩阵与一个选择变量相关联,该选择变量决定是否应丢弃秩-1 矩阵。我们开发了一种基于元学习的方法来学习这些选择变量。通过对这些变量的值进行阈值化处理,确定最佳秩。我们在自然语言理解、生成和序列标注方面的综合实验证明了 AutoLoRA 的有效性。

    01

    谷歌开源新模型EfficientNet,或成计算机视觉任务新基础

    开发一个卷积神经网络(CNN)的成本通常是固定的。在获得更多资源时,我们通常会按比例进行扩展,以便获得更优的准确性。例如,ResNet可以通过增加层数从ResNet-18扩展到ResNet-200,最近,GPipe 网络通过将基准 CNN 模型扩展四倍,在 ImageNet Top-1 上获得了 84.3% 的准确度。在模型扩展方面的操作通常是任意增加 CNN 的深度或宽度,或者在更大输入图像分辨率上进行训练和评估。虽然这些方法确实提高模型了准确性,但它们通常需要繁琐的手工调整,而且还不一定能找到最优的结构。换言之,我们是否能找到一种扩展设计方法来获得更好的准确性和效率呢?

    01
    领券