首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

React项目中如何实现一个简单的目录定位

前言 目录定位功能在长页面和文档类网站中非常常见,它可以让用户快速定位到页面的某个章节 如何在React实现点定位和平滑滚动 目录自动高亮的实现思路 处理顶部导航遮挡的解决方案 服务端渲染下的实现方案...对于点定位来说,主要涉及这两个部分: 设置,页面的某个组件添加id属性 点击链接,跳转到指定处 例如: // 组件 function AnchorComponent() {...问题解析 遮挡问题 有时会被固定的Header遮挡,此时滚动会定位到元素上方,用户看不到对应的内容。...常见的解决方案是: 设置元素margin-top #anchor { margin-top: 80px; /* header高度 */ } 直接设置一个和Header高度相同的margin,来防止遮挡...这是因为在服务端,我们无法获取组件的ref,所以元素不存在,自然无法定位。 滚动页面时,目录高亮也失效。 服务端渲染的静态HTML,并没有绑定滚动事件,所以无法自动高亮。

86520

Feature Selective Anchor-Free Module for Single-Shot Object Detection(文献阅读)

分类子网每个A和K个对象类预测对象在每个空间位置的概率。如果存在,回归子网预测每个A到附近实例的4维类无关偏移量。?...同样的,回归子网的feature map上也附加了一个3×3 conv层,带有四个filter,然后是ReLU函数。它负责预测以无锚定方式编码的框偏移量。...本文分别设置 ,以车实例,如下图所示。?(2)如何生成无分支的监督信号 ground-turuth对分类的输出是K maps,每个map对应一个类。...Focal loss应用在监督,超参设置 。图像无分支的分类总损失是所有非忽略区域上的Focal loss之和,由所有有效盒区域内的像素总数归一化。   ...这些来自各个级别的顶级预测与基于的分支的box预测合并,然后是阈值0.5的非最大抑制,得到最终的检测结果。

1.9K20
您找到你想要的搜索结果了吗?
是的
没有找到

Single-Shot Refinement Neural Network for Object Detection

RefineDet由两个相互连接的模块组成,即细化模块和目标检测模块。具体来说,前者的目的是(1)过滤掉负,减少分类器的搜索空间,(2)粗调的位置和大小,后续回归器提供更好的初始化。...后一个模块以改进后的输入,进一步改进回归,预测多类标签。同时,我们设计了一个传输连接块来传输细化模块的特征,以预测目标检测模块目标的位置、大小和类标签。...每个盒相对于对应单元格的初始位置是固定的。在每个feature map单元格,我们预测相对于原始平铺的改进框的四个偏移量,以及表示这些存在前景对象的两个置信度评分。...Iverson指示函数 当条件正时输出1(不是负的)否则输出零,指示了回归损失在负时不计算。注意,当 时,设置 和 ,并且如果 ,于是我们设置 和 。...在输入尺寸320×320的fed方法,RefineDet320获得了前78.1%的mAP,甚至超过了使用约1000×600输入尺寸的两阶段方法的大多数(速度Faster R-CNN的70.4%

1.3K10

Feature Selective Anchor-Free Module for Single-Shot Object Detection

为了实现尺度不变性,最先进的探测器构建了特征金字塔多级特征塔。多尺度的feature map正在并行地生成预测。此外,盒还可以进一步处理尺度变化。...盒通过人类定义的规则(盒的大小)与特定级别的功能映射相关联。因此,每个实例选择的特性级别完全基于特定的启发法。...同样的,在回归子网,在feature map上附加一个3×3的conv层和4个filter,然后是ReLU函数。它负责预测以无方式编码的盒偏移量。...图像无分支的总回归损失是所有有效盒区域IoU损失的平均值。在推理期间,很容易从分类和回归输出解码预测的盒子。在每个像素位置 ,假设预测偏移量 。然后预测的距离是 。...总体的优化损失 ,其中 控制无分支的权重。在所有实验,我们设置 。虽然结果是稳健的确切值。整个网络使用随机梯度下降(SGD)在8个GPU上进行训练,每个GPU有2张图像。

2.3K20

Region Proposal Network (RPN) 架构详解

特征图大小 WxH 的框总数和特征图每个位置的点数量 K 可以表示 WxHxK 。 下图显示了在大小 (600, 900) 的图像的位置 (450, 350) 处的 9 个。...Bounding box Regressor 层学习 x,y,w,h 值相对于被分类前景的 Anchor Box 的 Ground truth Box 的偏移量差异),其中 (x,y) 是框的中心...如果我们将特征图的深度设置 18(9 个 x 2 个标签),我们将使每个都有一个向量,该向量具有表示前景和背景的两个值(称为 logit 的法线)。...feature map 的每个位置都有 9 个 anchors,每个 anchor 都有两个可能的标签(background,foreground)。...如果我们将特征图的深度设置 18(9 个 x 2 个标签),我们将使每个都有一个向量,该向量具有表示前景和背景的两个值(通常称为 logit)。

63130

最新的目标检测的深度架构 | 参数少一半、速度快3倍+(文末福利)

常见的Two-stage算法 Single-shot检测器也可以分为两类:基于的检测器和基于关键的检测器。基于的检测器包含许多边界框,然后预测每个模板的偏移量和类。...Matrix Nets 下图所示Matrix nets(xNets),使用分层矩阵建模具有不同大小和丛横比的目标,其中矩阵的每个条目i、j 表示一个层 li,j,矩阵左上角层 l1,1 宽度降采样...矩阵向右的每一步都有效地使水平维度的感受野加倍,而每一步都使垂直维度上的感受场加倍。因此,当我们在矩阵向右向下移动时,宽度高度的范围需要加倍。...最后Matrix Nets可用作任何目标检测架构、基于基于关键、one-shottwo-shots检测器。...(a-b):使用了xNet的主干; (c):使用了共享输出子网络,而针对每个矩阵层,预测了左上角和右下角的热图和偏移量,并在目标层内对它们进行中心预测; (d):利用中心预测匹配同一层的角,然后将所有层的输出与

1.1K40

深度学习500问——Chapter08:目标检测(1)

应用领域包括人脸检测、行人检测、车辆检测、飞机航拍卫星图像中道路的检测、车载摄像机图像的障碍物检测、医学影响在的病灶检测等。...其他深度网络(VGGResNet)可用于更全面的特征提取,但这需要以速度代价。...相反,它会预测一些与左上角名为的参考框相关的偏移量x,y)。我们限制这些偏移量的值,因为我们的猜想仍然类似于。 要对每个位置进行k个预测,我们需要以每个位置中心的k个。...每个预测与特定相关联,但不同位置共享相同形状的。 这些是精心挑选的,因此它们是多样的,且覆盖具有不同比例和宽高比的现实目标。...Faster R-CNN使用更多的 它部署9个框:3个不同宽高比的3个不同大小的(Anchor)框。

32820

参数少一半、速度快3倍:最新目标检测核心架构来了

其中 FSAF 在基于的检测器效果是最好的,它超过了经典的 RetinaNet。...一步检测架构还可以分为两类:基于的检测架构和基于关键的检测架构。 基于的检测架构包含许多框,预测每个模板的偏移量和类别,其中最著名的就是 RetinaNet。...因此基于这个特点,MatrixNets 可作为任何目标检测的主架构,包括基于关键的一步两步检测器。...对于每个角来说,CornerNet 可预测热图、偏移量和嵌入。 下图 3 研究者提出的基于关键的目标检测架构 KP-xNet,它包含 4 个步骤。...(a-b) 步骤使用了 xNet 主干;(c) 步骤使用了共享输出子网络,而针对每个矩阵层,他们预测了左上角和右下角的热图和偏移量,并在目标层内对它们进行中心预测;(d) 步骤利用中心预测匹配同一层的角

39130

参数少一半、速度快3倍:最新目标检测核心架构来了

其中 FSAF 在基于的检测器效果是最好的,它超过了经典的 RetinaNet。...一步检测架构还可以分为两类:基于的检测架构和基于关键的检测架构。 基于的检测架构包含许多框,预测每个模板的偏移量和类别,其中最著名的就是 RetinaNet。...因此基于这个特点,MatrixNets 可作为任何目标检测的主架构,包括基于关键的一步两步检测器。...对于每个角来说,CornerNet 可预测热图、偏移量和嵌入。 下图 3 研究者提出的基于关键的目标检测架构 KP-xNet,它包含 4 个步骤。...(a-b) 步骤使用了 xNet 主干;(c) 步骤使用了共享输出子网络,而针对每个矩阵层,他们预测了左上角和右下角的热图和偏移量,并在目标层内对它们进行中心预测;(d) 步骤利用中心预测匹配同一层的角

30220

CornerNet: Detecting Objects as Paired Keypoints

SSD将框密集放置在多个尺度的feature map上,直接对每个盒进行分类和细化。YOLO直接从图像预测包围框坐标,之后在YOLO9000改进,切换到框。...其中N是图像目标的数量,α和β是控制每个贡献的超参数(我们在所有实验设置α2,β4)。使用 编码的高斯凸, 项减少了地面真实位置周围的惩罚。...当我们应用焦损失时,我们遵循在卷积层设置预测角落热图的偏差。在训练过程,我们将网络的输入分辨率设置511 × 511,输出分辨率128 × 128。...式,α、β、γ分别为拉力损失、推力损失和偏置损失的权重。我们设α和β0.1,γ1。我们发现α和β值大于等于1会导致性能较差。...角位置由相应的偏移量进行调整。我们计算左上角和右下角的嵌入之间的L1距离。距离大于0.5包含来自不同类别的角的对将被拒绝。以左上角和右下角的平均得分作为检测得分。

1.4K20

最新的目标检测的深度架构 | 参数少一半、速度快3倍+

常见的Two-stage算法 Single-shot检测器也可以分为两类:基于的检测器和基于关键的检测器。基于的检测器包含许多边界框,然后预测每个模板的偏移量和类。...Matrix Nets 下图所示Matrix nets(xNets),使用分层矩阵建模具有不同大小和丛横比的目标,其中矩阵的每个条目i、j 表示一个层 li,j,矩阵左上角层 l1,1 宽度降采样...矩阵向右的每一步都有效地使水平维度的感受野加倍,而每一步都使垂直维度上的感受场加倍。因此,当我们在矩阵向右向下移动时,宽度高度的范围需要加倍。...最后Matrix Nets可用作任何目标检测架构、基于基于关键、one-shottwo-shots检测器。...(a-b):使用了xNet的主干; (c):使用了共享输出子网络,而针对每个矩阵层,预测了左上角和右下角的热图和偏移量,并在目标层内对它们进行中心预测; (d):利用中心预测匹配同一层的角,然后将所有层的输出与

62620

CurcveLane-NAS:华为&中大提出一种结合NAS的曲线车道检测算法

何在骨干网络的不同阶段利用其计算成本进行最佳的车道网络设计?...4、 Adaptive Point Blending Search Module 受PointLaneNet 的启发,每个head在其特征图上建议许多,并预测其对应的偏移量以生成候选线,并且最终可以在图像通过线和一个终点确定一条车道线...对于每个网格,模型将预测一组偏移量和一个终点位置,其中偏移量是真实车道与预定义的垂直之间的水平距离,如图4所示。...此外,每个网格只能精确地预测其中心周围的偏移量,而离较远的偏移量则不准确。使用普通的Line-NMS对曲线车道偏僻部分的捕捉不够敏感。...在每组车道,将得分较低的点中好的局部与得分最高的点中的远程进行迭代交换。对于每个高置信度,再将其部分点替换为好的局部,成为最终的预测结果。

1.3K30

FCOS: Fully Convolutional One-Stage Object Detection

在基于的检测器盒可以看作是预先定义的滑动窗口建议,这些滑动窗口建议被划分为正补丁负补丁,并通过额外的偏移量回归来细化边界盒位置的预测。因此,这些检测器盒可视为训练样本。...除了上述描述形状的超参数外,基于的检测器还需要其他超参数将每个盒标记为正样本、忽略样本负样本。...1)在CNN,最终feature maps的大跨度(16×)会导致相对较低的最佳召回率。对于基于的检测器,由于大跨度而导致的低召回率可以通过降低正盒所需的IOU分数得到一定程度的补偿。...结果表明,与基于的检测器相比,基于模糊神经网络的检测器具有更好的性能。在FPN之后,我们在不同层次的feature map上检测不同大小的对象。...接下来,如果一个位置满足 ,它被设置一个负样本,因此不再需要返回一个边界框。这里mi是feature level i需要后退的最大距离。

2.7K20

从RCNN到SSD,深度学习目标检测算法盘点

其他深度网络( VGG ResNet)可用于更全面的特征提取,但这需要以速度代价。...相反,它会预测一些与左上角名为「」的参考框相关的偏移量?x、?y)。我们限制这些偏移量的值,因此我们的猜想仍然类似于。 ?...要对每个位置进行 k 个预测,我们需要以每个位置中心的 k 个。每个预测与特定相关联,但不同位置共享相同形状的。 ?...Faster R-CNN 使用更多的。它部署 9 个框:3 个不同宽高比的 3 个不同大小的框。...64 个位置 在每个位置,我们有 k 个是固定的初始边界框猜想),一个对应一个特定位置。我们使用相同的 形状仔细地选择和每个位置。 ?

1.1K20

【文本检测与识别-白皮书-3.1】第三节:算法模型 2

对于每个预测,水平位置(x坐标)和锚定位置都是固定的,这可以通过将conv5的空间窗口位置映射到输入图像上来预先计算。检测器输出每个窗口位置上的k个的文本/非文本分数和预测的y坐标(v)。...为了解决这个问题,CTPN提出了一种侧细化方法,该方法可以准确估计每个/方案在左右水平侧的位置(称为侧侧建议)的偏移量。...与y坐标预测相似,计算相对偏移量:图片其中,xside是距离当前最近的水平侧(例如,左侧右侧)的预测x坐标。图片是x轴上的真实(GT)边坐标,它是根据GT边界框和位置预先计算出来的。...实验将SWT和ICDAR 2015的图像短边设置2000,其他三个设置600。实验将CTPN和最近公布的几种方法进行了比较。如表1和表2所示, CTPN在所有五个数据集上都达到了最佳性能。...SegLink通过估计输入图像上的一组默认框的置信度分数和几何偏移量来检测片段。每个默认框都与一个特征地图位置相关联,它的分数和偏移量可以从该位置的特征预测出来。

46020

目标检测 | ATSS:自适应选择正负样本,消除Anchor-based和Anchor-free算法之间的性能差异

Anchor-free的检测:可以首先找到几个预定义自学习的关键,然后限制目标对象的空间范围。或者使用目标对象的中心区域定义正样本,然后预测从正样本到对象边界的四个距离。...(4)回归子网络:回归子网络与分类子网络平行,预测每一个预选框的偏移量,最终输出特征大小4A×W×W。与当前主流工作不同的是,两个子网络没有权重的共享。...将retinanet的anchor数量设置1,每个location仅预测一个格子,和anchor-free预测一个样本对应。...首先将groundtruth框内的anchor point视为候选正样本,然后根据每个金字塔等级定义的比例范围从候选样本中选择最终的正样本,最后那些未选择的负样本。 ?...,由于标准差低,各层的IOU分布均匀,则设定较低的阈值来从各层筛选正样本。 若anchor box的中心不在GT区域内,则其会使用非GT区域的特征进行预测,这不利于训练,应该排除。

1.9K10

IJCAI 2021|美团提出车道线检测新框架SGNet,精准且快速

基于R与L_center,可以对不同的车道线标注方式(、掩码、标记、网格等)进行统一的表示。 ? 图 3:基于外接框 - 中心线 - 偏移量的车道线表示方式。...中心线L_center可以使用直线的一般式表示: ? 。当中心线上一个的y坐标是y_i时,相应的 x 坐标: ? 。容易得到,车道线实例L_Lane与中心线L_center在x上的偏移量 ?...: ? 因此,基于中心线L_center和偏移量 ? ,可以方便地表征车道线实例L_Lane。 2、消失点引导的生成机制 为了正确预测中心线L_Lane和车道线偏移量 ?...其中,为了验证消失点引导的生成机制的有效性,研究者设置了三个实验:特征提取 + 朴素分类回归模型(Base)、特征提取 + 消失点引导的生成机制 + 分类回归模型(Base+V)、特征提取 + 车道线关键拟合的到的消失点引导的生成机制...从表 2 可以看出,消失点引导的生成机制可以有效提升车道线检测的性能,同时基于外接框 - 中心线 - 偏移量的表示方法更有利于表征车道线并且获得更好的性能。

95340

深度 | 像玩乐高一样拆解Faster R-CNN:详解目标检测的实现过程

最新的网络结构 DenseNet,可以在提高准确度的同时缩减参数数量。 VGG 在讨论网络结构孰优孰劣之前,让我们先以 VGG-16 例来尝试理解 Faster-RCNN 是如何工作的。 ?...如果我们在特征图上每个空间位置上都定义一个,那么最终图片的会相隔 r 个像素,在 VGG ,r=16。 ?...然后,我们对这些随机采样,构成大小 256 的 mini batch——维持前景和背景之间的平衡比例。...为了计算回归的目标,我们使用前景和最接近的真实目标,并计算将转化为目标所需的正确 Δ。 论文中建议使用 Smooth L1 loss 来计算回归误差,而不是用简单的 L1 L2 loss。...我们用随机梯度下降的动量算法训练,将动量值设置 0.9。你可以轻松的用其他任何优化方法训练 Faster R-CNN,而不会遇到任何大问题。

82780

深度 | 像玩乐高一样拆解Faster R-CNN:详解目标检测的实现过程

最新的网络结构 DenseNet,可以在提高准确度的同时缩减参数数量。 VGG 在讨论网络结构孰优孰劣之前,让我们先以 VGG-16 例来尝试理解 Faster-RCNN 是如何工作的。 ?...如果我们在特征图上每个空间位置上都定义一个,那么最终图片的会相隔 r 个像素,在 VGG ,r=16。 ?...然后,我们对这些随机采样,构成大小 256 的 mini batch——维持前景和背景之间的平衡比例。...为了计算回归的目标,我们使用前景和最接近的真实目标,并计算将转化为目标所需的正确 Δ。 论文中建议使用 Smooth L1 loss 来计算回归误差,而不是用简单的 L1 L2 loss。...我们用随机梯度下降的动量算法训练,将动量值设置 0.9。你可以轻松的用其他任何优化方法训练 Faster R-CNN,而不会遇到任何大问题。

1.2K120
领券