首页
学习
活动
专区
圈层
工具
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

在Colab上的AlexeyAB Yolov4 Darknet软件包上测试时显示的额外类别预测结果

在Colab上使用AlexeyAB Yolov4 Darknet软件包进行测试时,额外类别预测结果是指在目标检测过程中,除了已经训练的标准类别外,模型能够识别出的其他类别。

AlexeyAB Yolov4 Darknet是一个基于深度学习的目标检测框架,它使用了YOLO (You Only Look Once) 系列算法的最新版本Yolov4。Yolov4是一种高效的实时目标检测算法,具有较高的准确性和速度。

额外类别预测结果的出现可能是因为模型在训练过程中遇到了未被标注的类别,或者模型具有广泛的泛化能力,在测试阶段能够识别出未知的类别。这些额外类别可能是模型之前未见过的新物体,或者是与训练数据相似但未被标注的物体。

对于这些额外类别预测结果,可以采取以下措施进行处理:

  1. 确认类别:首先,需要确认额外类别的真实标识。可以通过观察图像中的目标,结合领域知识和人工验证,来判断预测结果的准确性和类别的真实性。
  2. 数据收集:如果额外类别是真实存在的,可以考虑收集更多的数据,包括该类别的样本图像。收集更多的数据有助于提高模型对该类别的识别能力,并提高整体的准确性。
  3. 模型再训练:使用收集到的额外类别数据,可以对模型进行再训练,以提升对该类别的识别能力。可以使用Yolov4 Darknet提供的训练工具进行模型再训练,根据收集到的数据和已有的训练参数进行优化。
  4. 模型调优:除了再训练外,还可以尝试调整模型的超参数和结构,以提升对额外类别的检测能力。例如,调整模型的层数、卷积核大小、学习率等参数,或者尝试使用其他的目标检测算法进行对比实验。

对于Colab上的AlexeyAB Yolov4 Darknet软件包,可以在以下链接中获取更多信息和参考:

产品名称:AlexeyAB Yolov4 Darknet 产品介绍链接:AlexeyAB Yolov4 Darknet产品介绍

页面内容是否对你有帮助?
有帮助
没帮助

相关·内容

基于深度学习的路面坑洞检测(详细教程)

如果您使用的是 Windows 操作系统,建议您使用提供的 Jupyter notebook 并在 Colab 上运行它。以下本地执行步骤是在 Ubuntu 系统上执行的。...下一个块显示了一个这样的文本文件的示例。 文本文件中的每一行代表数据集中的一个对象。第一个数字是 0,代表类别。其余四个浮点数表示上述格式的坐标。...从这里开始,我们讨论的所有配置设置都基于 Colab 上可用的 16GB Tesla P100 GPU。您可以根据自己的可用性调整配置,但我们在这里讨论的实验和结果是基于上述硬件的设置。...--out_filename:生成的视频文件名。 固定 608×608 分辨率图像训练的 YOLOv4 模型测试: ‍结果真的很有趣。...如果你还记得的话,固定分辨率模型在测试数据集上给出了超过 69% 的最高 mAP。但在这里,与多分辨率模型相比,它检测到的坑洞更少。当坑洞很小或距离较远时,它通常会失败。

1.6K10

YOLOv4-Tiny来了!371 FPS!

在COCO上的性能:40.2% AP50, 371 FPS (GTX 1080 Ti) 无论是AP,还是FPS的性能,其相较于YOLOv3-Tiny、Pelee、CSP都是巨大的提升,如下图所示: ?...https://github.com/AlexeyAB/darknet 很多同学一定会问,YOLOv4-Tiny相较于YOLOv4有哪些变化?删减了哪些模块或者layers?...) scale_x_y parameter (as in YOLOv4) 想了解更多YOLOv4-Tiny内容,其实建议上github,直接和AlexeyAB对线交流,他回复的相当及时,链接如下,推荐直接交流...国外已经有网友亲测了YOLOv4-Tiny,并在Titan XP、Jetson AGX Xavier两个设备上测试,结果如下: Titan XP ?...侃侃 关于YOLOv4是否是YOLOv3的真正"继承者",我想没有人比Joe Redmon(YOLOv1-v3作者)回答更合适了,他在twitter上的回复内容如下: Doesn’t matter what

3.4K20
  • YOLOv4官方改进版来了!指标炸裂55.8% AP!Scaled-YOLOv4:扩展跨阶段局部网络

    (在RTX 2080Ti上测试) 作者单位:YOLOv4原班人马(AlexeyAB等人) papers: 公号后台回复 SYOLO 获取 code: https://github.com/WongKinYiu...YOLOv4-large模型达到了最先进的结果: 在Tesla V100上以15 FPS的速度,MS COCO数据集的AP为55.4%(AP50为73.3%),而随着测试时间的增加,YOLOv4-large...在提出的scale - yolov4中,本文讨论了线性缩放模型的上界和下界,并分别分析了小模型和大模型缩放时需要注意的问题。...图像分类与目标检测最大的区别在于,前者只需要识别图像中最大成分的类别,而后者需要预测图像中每个目标的位置和大小。在单级目标检测器中,利用与每个位置相对应的特征向量来预测该位置的目标类别和大小。...更好地预测物体大小的能力基本上取决于特征向量的感受野。在CNN的建筑中,与感受野最直接相关的是stage。

    1.9K10

    NVIDIA Jetson Nano使用Tensor RT加速YOLOv4神经网络推理

    1 如何使用YOLOv4 首先要先建置darknet的环境,先下载darknet的github: $ git clone https://github.com/AlexeyAB/darknet.git...2 使用YOLOv4进行推理 我们需要先下载YOLOv4的权重来用 wget https://github.com/AlexeyAB/darknet/releases/download/darknet_yolo_v3...4 使用结构更小的YOLO ( Yolov4-Tiny ) 下一种加快速度的方法是使用yolov4-tiny.weights,一个更小型的yolov4,这边的小型指的是神经网络模型的结构,一般我们都会使用在运算能力相较于显示适配器低的装置上...( 例如 : 边缘装置 ),实作的部分,我们先将该权重下载下来: $ wget https://github.com/AlexeyAB/darknet/releases/download/darknet_yolo_v4...下载、安装环境 坊间利用Yolov4做了很多应用,而转换这块也已经有人完成了,所以我们直接使用网络上提供的Github来实现即可: $ git clone https://github.com/jkjung-avt

    3.7K20

    手把手教你用深度学习做物体检测(三):模型训练

    上篇文章《手把手教你用深度学习做物体检测(二):数据标注》中已经介绍了如何准备我们训练模型需要用到的数据,上篇文章中有个需要注意的地方就是在生成yolov3所需格式的文件时,务必在unbuntu下生成,...,也就是AlexeyAB/darknet项目。...-gpus 1 -map 训练过程开始后,除了终端会持续显示训练情况,还会额外出现一个窗口以图形的方式实时展示损失值和mAP的变化情况: ?...我的目标类别是12类,每类大概有800张,迭代到3000次以后,平均损失值开始收敛,在0.5左右,另外由于测试样本和训练样本来此同一批次采集,只是拍摄角度距离不同,并且没有引入负样本,所以mAP的值可以接近...,如果你想快速知道类别检测的对不对,可以将names-data目录下的voc.names文件内容改为英文,此时你将会看到类别正常显示出来了,但是没有显示对应的置信度,置信度可以直观上理解为该目标为当前显示类别的概率以及该矩形检测框位置的置信度

    1.3K20

    YOLO算法最全综述:从YOLOv1到YOLOv5

    从而使得每一批训练样本在每一层都有类似的分布。这一变换不需要引入额外的参数。②对上一步的输出再做一次线性变换,假设上一步的输出为Z,则Z1=γZ + β。这里γ、β是可以训练的参数。...例如,如果想知道一张图片是不是“Norfolk terrier ”需要计算: 另外,为了验证这种方法作者在WordTree(用1000类别的ImageNet创建)上训练了Darknet-19模型。...https://github.com/AlexeyAB/darknet YOLOv4!...YOLOv4 在COCO上,可达43.5% AP,速度高达 65 FPS! YOLOv4的特点是集大成者,俗称堆料。但最终达到这么高的性能,一定是不断尝试、不断堆料、不断调参的结果,给作者点赞。...的开发者没有明确地将其与 YOLOv4 进行比较,但他们却声称 YOLOv5 能在 Tesla P100 上实现 140 FPS 的快速检测;相较而言,YOLOv4 的基准结果是在 50 FPS 速度下得到的

    65420

    并不比YOLOv4强,不配这个名字

    在发布 YOLOv4 时就不是只有亮眼的结果,还一并发表了论文。 社区反应 其次,为了确定 YOLOv5 是否够格,我们来看看相关社区对这个所谓的「下一代」模型的反应,包括他们的分析和评估。...然后他提供了一个指向 YOLOv4 的作者 AlexeyAB 的代码库的链接:GitHub.com/AlexeyAB/darknet/issue/5920。...这个软件库已经开发有一段时间了。」 Bochkovskiy 的评估 回到 AlexeyAB 的 GitHub 讨论,可以看到 Alexey 的评论说 roboflow.ai 博客的比较结果是无效的。...他们没有使用同等设置在广受认可的 Microsoft COCO 数据集上进行测试,他们也没有在 Microsoft COCO CodaLab 评估服务器上测试,这样可以减少人为操纵实验结果的可能性。」...这篇文章很长,他们在文中承认了自己的错误并重新对 YOLOv4 和 YOLOv5 进行全面深入的比较,其结果已在前文讨论过。

    1.4K20

    YOLO算法最全综述:从YOLOv1到YOLOv5

    从而使得每一批训练样本在每一层都有类似的分布。这一变换不需要引入额外的参数。②对上一步的输出再做一次线性变换,假设上一步的输出为Z,则Z1=γZ + β。这里γ、β是可以训练的参数。...例如,如果想知道一张图片是不是“Norfolk terrier ”需要计算: 另外,为了验证这种方法作者在WordTree(用1000类别的ImageNet创建)上训练了Darknet-19模型。...:https://github.com/AlexeyAB/darknet YOLOv4!...YOLOv4 在COCO上,可达43.5% AP,速度高达 65 FPS! YOLOv4的特点是集大成者,俗称堆料。但最终达到这么高的性能,一定是不断尝试、不断堆料、不断调参的结果,给作者点赞。...的开发者没有明确地将其与 YOLOv4 进行比较,但他们却声称 YOLOv5 能在 Tesla P100 上实现 140 FPS 的快速检测;相较而言,YOLOv4 的基准结果是在 50 FPS 速度下得到的

    1.4K51

    三分钟:极速体验JAVA版目标检测(YOLO4)

    可以,今天咱们用最少的时间、最简单的操作来体验这个实用的功能,您提交一张普通照片后,会看到下图效果,原照片上的狗子、人、马都被识别出来,每个识别框的左上角是类别和置信度,最后,图片左上角还有本次识别所用时间...: 接下来请随本文一起动手来实现上述效果,整个过程分三步完成: 下载模型和配置文件 运行docker容器,这是个web服务,咱们用浏览器访问此服务,提交照片完成检测 验证效果(在浏览器上打开web页面.../AlexeyAB/darknet/master/cfg/yolov4.cfg YOLOv4权重: https://github.com/AlexeyAB/darknet/releases/download.../darknet_yolo_v3_optimal/yolov4.weights 分类名称: https://raw.githubusercontent.com/AlexeyAB/darknet/master...Java在目标识别领域的魅力了,聪明的您当然会有很多疑问,例如: 用了啥技术?

    42430

    大神接棒,YOLOv4来了!

    因为他就是darknet另一个github版本的维护者,也就是YOLOv4的代码库: https://github.com/AlexeyAB/darknet 据Amusi 猜测推断,Alexey Bochkovskiy...//github.com/AlexeyAB/darknet 大家一定被文章开头的图片吸引了,位于图中靠右上角的YOLOv4 多么"亮眼",越靠右上角意味着AP越高、速度FPS越快!...而且YOLO被大家追捧的原因之一就是:快而准。 ? YOLOv4 在COCO上,可达43.5% AP,速度高达 65 FPS! YOLOv4的特点是集大成者,俗称堆料。...文中称:CSPDarknet53在检测上的表现要优于CSPResNext50,关于CSP,不了解的同学可以看一下这篇文章: 增强CNN学习能力的Backbone:CSPNet ?...感受一下YOLOv4实验的充分性(调参的艺术) ? ? 感受一下性能炸裂的YOLOv4实验结果 ? ? ? ? 论文篇幅很长,高达17页,干货满满!

    1.1K30

    YOLO 算法最全综述:从 YOLOv1 到 YOLOv5

    从而使得每一批训练样本在每一层都有类似的分布。这一变换不需要引入额外的参数。②对上一步的输出再做一次线性变换,假设上一步的输出为Z,则Z1=γZ + β。这里γ、β是可以训练的参数。...例如,如果想知道一张图片是不是“Norfolk terrier ”需要计算: 另外,为了验证这种方法作者在WordTree(用1000类别的ImageNet创建)上训练了Darknet-19模型。...https://github.com/AlexeyAB/darknet YOLOv4!...YOLOv4 在COCO上,可达43.5% AP,速度高达 65 FPS! YOLOv4的特点是集大成者,俗称堆料。但最终达到这么高的性能,一定是不断尝试、不断堆料、不断调参的结果,给作者点赞。...的开发者没有明确地将其与 YOLOv4 进行比较,但他们却声称 YOLOv5 能在 Tesla P100 上实现 140 FPS 的快速检测;相较而言,YOLOv4 的基准结果是在 50 FPS 速度下得到的

    6.2K40

    YOLO算法最全综述:从YOLOv1到YOLOv5

    从而使得每一批训练样本在每一层都有类似的分布。这一变换不需要引入额外的参数。②对上一步的输出再做一次线性变换,假设上一步的输出为Z,则Z1=γZ + β。这里γ、β是可以训练的参数。...例如,如果想知道一张图片是不是“Norfolk terrier ”需要计算: 另外,为了验证这种方法作者在WordTree(用1000类别的ImageNet创建)上训练了Darknet-19模型。...https://github.com/AlexeyAB/darknet YOLOv4!...YOLOv4 在COCO上,可达43.5% AP,速度高达 65 FPS! YOLOv4的特点是集大成者,俗称堆料。但最终达到这么高的性能,一定是不断尝试、不断堆料、不断调参的结果,给作者点赞。...的开发者没有明确地将其与 YOLOv4 进行比较,但他们却声称 YOLOv5 能在 Tesla P100 上实现 140 FPS 的快速检测;相较而言,YOLOv4 的基准结果是在 50 FPS 速度下得到的

    2.5K10

    使用Python在自定义数据集上训练YOLO进行目标检测

    所以我们要做的就是学习如何使用这个开源项目。 你可以在GitHub上找到darknet的代码。看一看,因为我们将使用它来在自定义数据集上训练YOLO。...克隆Darknet 我们将在本文中向你展示的代码是在Colab上运行的,因为我没有GPU…当然,你也可以在你的笔记本上重复这个代码。偶尔会更改路径。...因此,在每次编译时都去重新编写g++等命令将会非常费力… 那么我们要做的是创建一个makefile,它已经包含了这个命令,并且我们所需要做的就是运行makefile来编译代码。...首先,你需要打开darknet/data/obj.names路径下的文件,其中你将写入你的标签。 在Colab中,我们可以使用魔术命令直接在一个单元格中写入文件。...现在,你可以在你的图像上运行预测,以获取类别和边界框。

    46810

    基于深度学习的自动车牌识别(详细步骤+源码)

    -dont_show当我们不想显示输出时通过。另外,在 google colab notebook 中运行代码时需要传递这个,因为它不支持 GUI 输出,不传递会导致错误。...在高级解释中,将预测的边界框与检测到的边界框进行比较,并返回一个称为 mAP 的分数。...在 Tesla K80 GPU 上使用 Levenshtein 距离在IC15数据集上测试了三个模型。 重点将放在轻量级 PPOCRv2(11.6M) 上。.../out_car-img.jpg') cv2.imshow(out_img) 视频测试 在我们在图像上测试了我们的 ALPR 之后,我们也可以类似地将其应用于视频。...跟踪器在 ALPR 中的作用 如前所述,在视频上运行 ALPR 时,会导致一些问题导致 ALPR 不太准确。但是如果使用跟踪器,这些问题可以得到纠正。

    7.3K30

    起飞 | 应用YOLOV4 - DeepSort 实现目标跟踪

    PS:如果你向使用 yolov4-tiny.weights,一个更小的模型,运行更快但精度略低一些,可以在这里下载 https://github.com/AlexeyAB/darknet/releases.../download/darknet_yolo_v4_pre/yolov4-tiny.weights 使用 YOLOv4 运行跟踪器 为了将 YOLOv4 应用到目标跟踪上,首先我们需要将权重文件转换.../outputs/webcam.avi --model yolov4 --output 后面接的是目标跟踪输出结果视频文件的存储路径。...目标跟踪器跟踪的类别 默认情况下,代码被设置为跟踪coco数据集中的所有80个类,这是预先训练好的YOLOv4模型所使用的。但是,可以简单地调整几行代码,以跟踪80个类中的任意一个或任意一个组合。...这些类可以是模型训练的80个类中的任何一个,可以在data/classes/ cocoa .names文件中看有那些跟踪类 这个示例将允许跟踪person和car的类。 ?

    6.1K61

    【翻译】手把手教你用AlexeyAB版Darknet

    增加了使用CPU-RAM提高GPU处理训练的能力,以增加mini_batch_size和准确性。 提升了二值网络,让其在CPU和GPU上的训练和测试速度变为原来的2-4倍。...v3 COCO - 图片测试: darknet.exe detect cfg/yolov3.cfg yolov3.weights -i 0 -thresh 0.25 在 Amazon EC2上训练,...darknet53.conv.74 -map 然后你就能得到loss曲线和mAP曲线,mAP每4个epoch对验证集进行一次测试,并将结果显示在图中。...我的损失函数很高并且mAP很低,训练出错了吗?在训练命令末端使用-show_imgs 标志来运行训练,你是否能看到有正确的边界预测框的目标(在窗口或者aug_...jpg)?...在Linux上。 使用build.sh 或者 使用cmake编译darknet 或者 将Makefile重的LIBSO=0改为LIBSO=1,然后执行make编译darknet 在Windows上。

    3.8K20

    知识精讲 | Yolov3和Yolov4核心内容、代码梳理

    代码,代码和原始作者代码相比,进行了很多的优化,如需要运行Yolov3网络,加载cfg时,使用Yolov3.cfg即可 代码地址: https://github.com/AlexeyAB/darknet...仅对比Yolov3和Yolov4,在COCO数据集上,同样的FPS等于83左右时,Yolov4的AP是43,而Yolov3是33,直接上涨了10个百分点。...Yolov4作者实验测试时,使用CSPDarknet53网络在ImageNet数据集上做图像分类任务,发现使用了Mish激活函数的TOP-1和TOP-5的精度比没有使用时都略高一些。...Yolov4的作者在使用608*608大小的图像进行测试时发现,在COCO目标检测任务中,以0.5%的额外计算代价将AP50增加了2.7%,因此Yolov4中也采用了SPP模块。...代码地址: https://github.com/AlexeyAB/darknet 5.3 python版本的Tensorrt代码 目前测试有效的有tensorflow版本:weights->pb->

    1.8K50
    领券