腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
2
回答
将
256x256
(
不是
299x299
)
的
图像
大小
输入
到
初始
v3
模型
(
PyTorch
)
中
,
是否
可以
正常
工作
?
、
、
、
、
我正在
Pytorch
上测试预训练
的
inception
v3
模型
。我给它提供了
256x256
的
图像
大小
,并将它
的
大小
调整到了
299x299
。在这两种情况下,
图像
都被正确分类。谁能解释一下为什么
PyTorch
预训练
模型
可以
接受
不是
299x299
的
图像
?
浏览 16
提问于2019-08-09
得票数 4
回答已采纳
1
回答
Xception CNN
模型
的
输入
形状
、
、
我有一个基于Keras
的
手势识别
模型
。该
模型
对7种不同手势
的
分类准确率在60%~70%左右。训练数据集由320x240和640x480像素
图像
组成。目前,我在Keras中将
模型
的
input_shape参数保留为Xception
模型
的
默认值,即(299, 299, 3)。我假设网络正在
将
所有
输入
重新标度
到
299x299
像素,这可能
不是
一个好方法。我
浏览 0
提问于2021-02-24
得票数 2
4
回答
为什么CNN必须有固定
的
输入
大小
?
、
、
、
为什么CNN必须有固定
的
输入
大小
?但是为什么呢?我无法理解完全连接层
的
存在意味着什么,以及为什么我们被迫有一个固定
的
输入
大小
。
浏览 0
提问于2019-11-30
得票数 9
回答已采纳
1
回答
在现有
PyTorch
模型
中
添加
图像
大小
作为第二
输入
、
、
、
、
我在
PyTorch
中使用预先训练过
的
PyTorch
模型
和传输学习来分类我自己
的
数据集。这是很好
的
工作
,但我认为我
可以
进一步提高我
的
分类性能。我们
的
图像
有不同
的
尺寸,它们都被调整
大小
以适应我
的
模型
的
输入
(例如,224x224像素)。 然而,原始
图像
大小
通常表示
浏览 1
提问于2022-01-24
得票数 0
回答已采纳
1
回答
在迁移学习过程
中
,您
可以
使用不同
的
图像
大小
吗?
、
、
、
、
我最近从TensorFlow切换到了
PyTorch
。我在EfficientNets上使用著名
的
Github repo进行训练。我按如下方式编写了
模型
初始
化类: class CustomEfficientNet(nn.Module): def __init__(self, config: type, pretrained
中
,我倾向于使用Resize(img_size = 512, img_size=512)进行某些
图像
分类任务
的
训练(主要是Kaggle竞赛)。所以
浏览 143
提问于2020-12-31
得票数 1
回答已采纳
1
回答
PyTorch
:为什么运行output =model(映像)需要这么多GPU内存?
、
、
、
在试图理解为什么我
的
PyTorch
模型
的
最大批处理
大小
是有限
的
时,我注意
到
使用最多内存
的
不是
模型
本身,也
不是
将
张量加载到GPU
中
。当第一次生成预测时,大部分内存都会耗尽,例如训练循环中
的
以下一行:其中
图像
是一些
输入
张量,
模型
是我
的</em
浏览 3
提问于2022-05-27
得票数 4
回答已采纳
1
回答
如何在VGG16或InceptionV3
中
使用非常高分辨率
的
图像
、
、
我有一个细菌
图像
的
数据集,这些
图像
是从显微镜下拍摄
的
,并用高分辨率相机记录下来。
图像
的
分辨率为800x600,而在另一个数据集(从不同
的
显微镜获取)
中
,分辨率约为5312x2988。像VGG16和InceptionV3这样
的
模型
是在224x224
的
图像
分辨率上训练
的
。 如何正确地
将
图像
数据
输入
到</em
浏览 1
提问于2017-03-10
得票数 3
1
回答
如何求未知
PyTorch
模型
的
输入
张量形状
、
、
、
、
目前,我已经将用于tensorflow,用于keras
到
ONNX
的
转换,以及这些
工作
。是
PyTorch
关于ONNX转换
的
浏览 10
提问于2020-07-28
得票数 4
回答已采纳
1
回答
适用于
pytorch
中
可变
大小
图像
的
CNN
、
、
我想在
pytorch
中
制作一个CNN
模型
,
可以
输入
不同
大小
的
图像
。我正在尝试使用2d卷积层,它采用4D
输入
形状(
pytorch
的
Conv2d期望它
的
2D
输入
实际上有4维)。然而,我不确定如何设置
输入
层,以便
将
所有可变
大小
的
图像
调整为固定数量
的
特征映射,以传递
浏览 1
提问于2021-01-22
得票数 0
1
回答
是否
需要
图像
分类
的
数据集组织?
、
、
、
、
我目前正在开发一个程序,它
可以
用机器学习来进行二值
图像
分类。我有一个标签列表和一个作为
输入
的
图像
列表,然后
输入
到
Inception
V3
模型
中
。 以这种方式
输入
数据集
是否
与最初
的
V3
体系结构相适应?在
将
图像
输入
模型
之前,
是否
需要组织带有标签文件夹
的<
浏览 0
提问于2018-08-03
得票数 2
回答已采纳
1
回答
图像
分辨率在深度学习
中
的
作用
、
我有关于同一主题
的
多个
图像
数据集,我希望使用深度学习进行分类任务。数据集
的
图像
分辨率不同(例如,一些图片是128x128px,一些是512x512,另一些是2048x2048)。如果我使用解析度最高
的
数据集来训练,我
的
直觉将是,当网络学习低分辨率图片中可能无法识别的模式时,
将
更难对分辨率较低
的
图像
进行分类。另一方面,如果我使用低分辨率数据集进行训练,学习
到
的
模式更粗糙,而且在任何新数据上都表现得更好
浏览 0
提问于2020-10-29
得票数 4
回答已采纳
3
回答
为什么
PyTorch
模型
在
模型
中
采用多个
图像
大小
?
、
、
、
、
我在
PyTorch
中使用一个简单
的
对象检测
模型
,并使用Pytoch
模型
进行推理。当我在代码中使用简单
的
迭代器时 image = imgproc.loadImage(image_path)image.shape) y, feature = net(x) 它打印我们
的</e
浏览 2
提问于2020-07-03
得票数 8
回答已采纳
2
回答
语义
图像
分割神经网络(DeepLabV3+)
的
内存过多问题
、
、
、
、
你
可以
在下面的图片1和2上看到
输入
图片和地面实况/标签。请注意,我
的
地面实况/标签只有3个值: 0,1和2。所有
图像
的
大小
都在100MB以下,
大小
为300x200像素。也许DeepLab
不是
我
的
任务
的
最佳选择,因为我
的
图片不包含颜色信息,并且我
的
图片非常小(300x200),但到目前为止,我还没有找到更好
的
语义分割NN。我不知道我
的</
浏览 83
提问于2019-02-21
得票数 6
回答已采纳
1
回答
为什么一个更大
的
神经网络比一个小
的
神经网络更快
的
反向传播?
、
、
、
我写了两个用于
图像
分割
的
神经网络:小一点
的
: super(ConvNetV0, self).self.conv2(x) x = self.conv3(x) y = self.conv4(x)更大
的
那个x2 = self.conv_b1(x) y = torch.cat([x1, x2], dim
浏览 1
提问于2018-07-01
得票数 0
回答已采纳
1
回答
不同
的
输入
图像
大小
/分辨率如何影响语义
图像
分割网络
的
输出质量?
、
、
、
、
在尝试使用在另一个数据集()上训练
的
深度学习网络对一个数据集()
中
的
图像
执行
图像
分割时,我意识
到
在主观感知
的
输出质量方面存在很大差异(可能在对(M)IoU进行基准测试时也是如此)。这提出了我
的
问题,
输入
图像
的
大小
/分辨率
是否
以及如何影响语义
图像
分割网络
的
输出,该网络已经在与
输入
图像
不
浏览 5
提问于2018-03-09
得票数 1
1
回答
协同工具:如何正确使用NeuralNetworkMultiArrayShapeRange?
、
、
、
我有一个
PyTorch
网络,我想将它部署
到
iOS设备上。简而言之,我不能在CoreML
中
为
输入
张量形状增加灵活性。使用
PyTorch
,我
可以
输入
任意
大小
的
图像
,例如,300x300
图像
的
大小
张量(1,3,300,300)。为了
将
PyTorch
模型
转换为CoreML
模型
,我首先使用torch.o
浏览 2
提问于2020-01-09
得票数 0
回答已采纳
1
回答
在u-net
中
实现解池层,发生InvalidArgumentError
我在google colab中使用EM_dataset分段,keras2.3.1和TensorFlow2 这是我
的
代码。这是一个U-net。activation='relu', padding='same')(c9) outputs = layers.Conv2D(1, (1, 1), activation='sigmoid')(c9) 网络
正常
,但如果我真的适合,就会出现错误 重塑:重塑
的
输入
是一个具有12800个值
的
张量,但请求
的<
浏览 18
提问于2020-09-08
得票数 0
1
回答
深Q/强化学习
中
的
预处理会降低准确性吗?
、
、
、
我一直在阅读关于深入强化学习
的
文章,如下所示: 我还需要一段时间才能理解所有的数学,但这并不能阻止我使用库。无论如何,我知道在卷积神经网络
中
,如果你想对
图像
进行学习,你必须对
图像
进行预处理,否则计算神经网络所需
的
计算能力是天文数字。这
是否
以任何方式降低了网络
的
质量?如果是的话,怎么做?例如,假设您有足够
的
计算能力来为网络提供一个视频流
中
每一个高质量
图像
的
每个像素,以便学习如何达到目标。这会不会使网
浏览 4
提问于2016-07-11
得票数 0
回答已采纳
1
回答
用照片拼贴代替单个
图像
来训练对象检测
的
ssd
模型
可以
吗?
、
、
、
使用照片拼贴(一张
图像
中
的
多张照片)作为数据集,而
不是
使用单个
图像
来训练对象检测SSD
模型
是否
正常
/更好? 我正在使用Tensorflow对象检测API来建立一个SSD
模型
来识别和检测不同
的
叶子疾病。我
的
数据集由
256x256
树叶(植物村数据集)组成,我希望我
的
模型
能够被训练来检测多个不同
大小
的
对象(
浏览 0
提问于2020-08-20
得票数 1
1
回答
在RNN (特别是在
PyTorch
上)
中
,序列长度参数
的
用途是什么?
、
、
我很清楚理论上它是如何运作
的
。但是在
PyTorch
上,
输入
数据有两个额外
的
维度:批
大小
(批数)和序列长度。我正在研究
的
模型
是一个简单
的
一对一
的
模型
:它需要一个字母,而
不是
估计下面的字母。该
模型
提供了这里。 首先,如果我错了,请纠正我:批处理
大小
用于
将
数据分成几个批次,并将其
输入
并行运行
的
模型
<
浏览 0
提问于2022-05-17
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
从零开始PyTorch项目:YOLO v3目标检测实现
如何使用注意力模型生成图像描述?
从基础概念到实现,小白如何快速入门PyTorch
如何为您的机器学习问题选择正确的预训练模型
一步一步带你实现PyTorch手写字符识别
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券