腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
如
何在
模型
训练
期间
使用
图像
/
对象
/
视图
、
图像
/
对象
/
截断
和
图像
/
对象
/
困难
?
、
使用
TF Object Detection为
模型
训练
准备TF记录数据时,需要指定以下变量:image/object/truncated我想知道在
模型
训练
期间
它们是如何
使用
的,以及image/object/view变量的可能值是什么,感觉这应该是一些预定义的值集。
浏览 0
提问于2017-07-15
得票数 0
回答已采纳
1
回答
tensorflow
对象
检测
模型
训练
数据集中的重复
图像
、
、
、
我正在
训练
一个tensorflow
对象
检测
模型
,它已经被预先
训练
过,
使用
COCO来识别单个类型/类的
对象
。数据集中的某些
图像
中有多个此类
对象
的实例。考虑到
训练
中
使用
的每一个记录都有一个边框,我想知道如何才能最好地处理这样一个事实:我的
图像
中可能有同一个类的多个
对象
。 training?Would时,应该
使用
相同的
图像
作为多个记录吗?可能
浏览 1
提问于2019-10-21
得票数 2
回答已采纳
1
回答
如何
使用
经过预先
训练
的
模型
CNN的真实
图像
大小不同?
、
、
如
何在
512x512
图像
上
使用
预先
训练
过的
模型
,在真实
图像
上
使用
不同大小的
图像
,
如
Yolo
对象
检测? CNN需要固定的
图像
大小,那么如
何在
大于输入的真实
图像
上
使用
模型
呢?
浏览 5
提问于2022-10-29
得票数 0
2
回答
如何从数据集中
训练
特定类的
模型
以进行
对象
检测?
、
、
我想
使用
darkflow来执行
对象
检测。我有5类
对象
我想检测,比如说, bottle phone我想特别
训练
我的
模型
,而不是
使用
预先
训练
的重量。我计划把它
训练
成带有边框标注的
图像
。但是,所有可用的数据集,
如
imagenet、COCO,都有
图像
,其中也包含其他类的
对象
。那么,如何
使用
这些数据集对我的5个类
浏览 0
提问于2018-06-12
得票数 0
1
回答
Tensorflow
对象
检测:不
使用
自定义数据进行预测
、
、
、
我
使用
这个仓库有一个基本代码(),它
使用
Tensorflow
对象
检测,来检测一个评论截图中的评论,日期,喜欢
和
评分。我浏览了100张图片(只是想测试这是否可能),用4个标签(评论、日期、点赞
和
评分)对图片进行注释,将其从XML转换为CSV,然后生成TFrecords。这是针对
训练
数据
和
评估数据进行的。100幅
图像
用于
训练
,20幅
图像
用于评估。下面是我所注释的内容的截图。,而不是
使用
现有的
模型
浏览 3
提问于2018-08-02
得票数 0
回答已采纳
1
回答
Watson,对不同大小的
图像
进行分类
、
给定一个定制的IBM的Visual Recognition Service
模型
,该
模型
使用
一组大小为100x100的
图像
进行
训练
,那么在分类过程中只发送100x100大小的
图像
是否更好,或者
图像
的大小不是一个可以帮助产生更好的分类结果的属性吗
浏览 8
提问于2018-07-19
得票数 0
回答已采纳
2
回答
什么是意象注解?
、
、
、
、
为什么我们需要
使用
拉布利格工具来检测
对象
呢? 在
使用
labelimg标记了一组
训练
图像
之后,这将给CSV文件提供如何与TensorFlow
对象
检测API
和
Keras一起工作的方法?在没有
图像
注释工具的情况下,我们能检测到
图像
定位吗?就像自动注释。
浏览 0
提问于2020-03-02
得票数 1
1
回答
如
何在
tensorflow
对象
检测API中
使用
“忽略”类?
、
、
、
我在自定义数据集上
使用
num_steps:50000
训练
了tensorflow
对象
检测
模型
(用于SSD (mobilenet-v1) )。我得到mAP@.50IOU ~0.98
和
loss ~1.17。数据集由uno扑克牌
图像
(跳过、反向
和
绘制四个)组成。在所有这些卡片上,
模型
的表现都很好,因为我只在这3张卡上
训练
了
模型
(大约278张
图像
和
829个边界框(25%的边界框用于测试,即验
浏览 2
提问于2020-01-16
得票数 2
回答已采纳
1
回答
基于YOLO的不同DPI
图像
目标检测
、
、
、
我在试着
训练
YOLOV2关于电域
对象
的知识。
如
变压器、配电盘等。 用于
训练
的
对象
有这里我漏掉了什么?是否需要
使用
所有可能的DPI来
训练
模型
? 注意:当我得到0.2的损失率时,
浏览 2
提问于2018-12-21
得票数 0
2
回答
如何准备
图像
,用Python/Keras
训练
ConvNet?
、
、
、
尝试用Python + Keras
训练
cnn (卷积神经网络)。但即使是最简单的问题似乎也很难回答,而且那里的教程也没有我想要的答案。
图像
应该有多大?像MNIST这样
使用
18x18像素
图像
的例子很多,但在这种大小下,
浏览 1
提问于2019-08-12
得票数 0
回答已采纳
2
回答
tensorflow api
对象
检测
模型
中的微小
对象
检测
、
、
、
我有一个
使用
tensorflow
对象
检测api
和
更快的rcnn
模型
的
对象
检测
模型
。这个
模型
能够检测到清晰可见的
对象
,但无法检测到尺寸较小或distance.Does较大的
对象
,需要在更快的rcnn配置文件中进行任何更改吗?如果是,那是什么?如果不是,那么这个
模型
如何检测微小的物体呢?
浏览 22
提问于2019-06-28
得票数 0
1
回答
如何调整VisDrone数据集的大小并相应地更改注释文件?
、
、
我正在
使用
VisDrone数据集来
训练
MobileNet-YOLOV3。数据集包含不同大小的
图像
,
如
960x540P、1920x1080P等,以及每个
图像
的注释文件。但是当我
训练
YOLO
模型
时,它将所有
图像
的大小调整为416x416P,这导致在
训练
和
测试
期间
丢失了一些小
对象
。它还有一个问题,当它被调整大小时,注释可能是错误的,因为对于调整大小的
图像
,边界框必须不同
浏览 79
提问于2019-09-06
得票数 0
1
回答
零射击学习
、
、
、
、
据我所知,在零镜头学习中,课程分为看类
和
未见类。然后,我们对网络进行了培训,例如对50个课程进行了培训,并在网络尚未看到的其他50个课程上进行了测试。我还理解网络在未见的类中
使用
属性(不确定它是如何
使用
的)。然而,我的问题是,网络如何分类未见的类?它是否真的用它的名字来标记每个类。例如,如果我做的是零镜头动作识别
和
看不见的课程是这样的自行车,游泳,足球。网络实际上命名了这些类吗?它怎么知道他们的标签?
浏览 0
提问于2018-06-25
得票数 0
回答已采纳
2
回答
基于CNTK的目标检测
、
、
我想用/Fast
训练
一组
图像
(用来检测像酒杯/瓶子这样的物体)。我找不到合适的文档来为不同大小
和
形状的
图像
生成ROI。以及如
何在
经过
训练
的
模型
基础上创建
对象
标签?有人能指出适当的文档或培训链接,我可以
使用
cntk
模型
吗?请查看附加的
图像
,在其中我能够加载一个示例
图像
与默认的ROI在脚本中。如何
浏览 2
提问于2017-04-03
得票数 1
1
回答
鱼眼
图像
中的目标检测
我有一台
使用
鱼眼镜头的相机,需要用它运行一个物体检测网络,比如YOLO或SSD。 我应该先纠正/消除传入
图像
的失真吗?这在计算上是不是很昂贵? 或者,我应该尝试
使用
鱼眼
图像
来
训练
网络吗?
浏览 31
提问于2020-04-07
得票数 0
1
回答
windows phone的功能检测?
、
、
、
、
我想知道如何
使用
下列库创建任意
图像
检测:。在描述中,它指出,如果将
模型
添加到项目中,则可以检测到任何
对象
。有人知道如何创建这些
模型
吗?谢谢。
浏览 0
提问于2012-11-24
得票数 0
回答已采纳
1
回答
如
何在
单个tensorflow会话中运行多个分类
模型
(keras、caffe等)?
、
、
、
、
我正在尝试运行一个
对象
检测
模型
(SSD+Inceptionv2),并获得边界框作为结果。在从帧中获得边界框之后,裁剪后的
图像
应该通过不同的分类
模型
(在不同的库上进行
训练
,
如
keras
和
caffe)并获得预测结果。 由于这种分类
模型
的预测方法不起作用。关于如
何在
目标检测输出边界框(裁剪
图像
)上运行不同的分类
模型
,有什么想法吗?
浏览 1
提问于2020-03-03
得票数 0
1
回答
是否有必要在
图像
上标记某个类的每个
对象
?
、
、
、
、
我标记了一组
图像
,用于
训练
一个具有一个类的Faster-RCNN网络进行
对象
检测。在每个
图像
上大约有数百或数千个此类
对象
。我必须把它们都贴上标签吗?现在,我在每个
图像
上标记了大约20到80个
对象
实例。因此,我选择了我认为容易识别的
对象
。当我
使用
这个数据集开始
训练
网络时,损失在0.9到20,000,000之间 通常情况下,损失应该会变得更小,但在我的情况下,它会减少,并且具有极高的峰值。
浏览 18
提问于2019-07-17
得票数 2
回答已采纳
1
回答
利用Keras
模型
获取检测
对象
的位置
、
、
好吧,那么,我现在
使用
的代码是:from PIL import Image, ImageOpsimport tensorflow as tfcv2.waitKey(1) & 0xFF == ord('q'):cv2.destroyAllWindows() 有一个实时的摄像头
对象
检测,它工作的很好,但我想知道我如何能看到它在哪里检测到这个
对象
?
浏览 6
提问于2022-01-29
得票数 0
回答已采纳
1
回答
Google Vision API -如何检测戴口罩的人脸识别人员?
、
我尝试
使用
Google Vision API
和
一个用例研究来检测戴口罩的人的脸,由于API响应以及web-ui演示https://cloud.google.com/vision/docs/drag-and-drop
浏览 39
提问于2021-01-20
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
谷歌研究分享:从RGB图像准确估计透明对象的三维姿态
微软发布VinVL:推进视觉语言模型的最新进展
ECCV 2018 专场2
学习看透明物体
Google ECCV2020 可应用于AR/VR的论文汇总
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券