我在学习深度学习。训练了图像分类算法。然而,问题是,为了训练我使用的图像:
test_image = image.load_img('some.png', target_size = (64, 64))
test_image = image.img_to_array(test_image)
而在实际应用中,我使用:
test_image = cv2.imread('trick.png')
test_image = cv2.resize(test_image, (64, 64))
但我发现它们给出了不同的ndarray (不同的数据):
来自load_image的最后一个条目:
[ 64. 71. 66.]
[ 64. 71. 66.]
[ 62. 69. 67.]]]
来自cv2.imread的最后一个条目:
[ 15 23 27]
[ 16 24 28]
[ 14 24 28]]]
,因此系统无法正常工作。是否有一种方法可以将一个结果与另一个结果进行匹配?
发布于 2018-06-08 03:28:18
OpenCV以BGR格式读取图像,而在keras中,它以RGB表示。要使OpenCV版本与我们期望的顺序(RGB)相对应,只需颠倒通道:
test_image = cv2.imread('trick.png')
test_image = cv2.resize(test_image, (64, 64))
test_image = test_image[...,::-1] # Added
最后一行将通道反转为RGB顺序。然后,您可以将其输入到您的keras模型中。
我想补充的另一点是,cv2.imread
通常以uint8
精度读取图像。检查keras加载的图像的输出,您可以看到数据是浮点精度的,因此您可能还希望转换为浮点表示形式,如float32
import numpy as np
# ...
# ...
test_image = test_image[...,::-1].astype(np.float32)
最后一点,根据您训练模型的方式,通常会将图像像素值归一化为[0,1]
范围。如果您使用keras模型执行此操作,请确保将通过OpenCV读取的图像中的值除以255:
import numpy as np
# ...
# ...
test_image = (test_image[...,::-1].astype(np.float32)) / 255.0
发布于 2018-06-09 00:24:02
除了使用BGR格式的CV2和使用RGB格式的Keras (使用PIL作为后端)之外,使用相同参数的CV2和PIL的调整大小方法也有显著差异。
在互联网上可以找到多个参考文献,但一般的想法是,在两个调整大小的算法中使用的像素坐标系存在细微的差异,并且作为插值算法的中间步骤的不同投射到浮点的方法也存在潜在的问题。最终结果是一个视觉上相似的图像,但在不同版本之间略有偏移/干扰。
这是一个对抗性攻击的完美例子,即使输入差异很小,也可能导致准确性的巨大差异。
https://stackoverflow.com/questions/50746096
复制相似问题