首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

PYTHON TENSORFLOW 2二维卷积神经网络CNN对图像物体识别混淆矩阵评估|数据分享

什么是CNN

相关视频

(ConvNets 或 CNNs)是一类神经网络,已被证明在图像识别和分类等领域非常有效。与传统的多层感知器架构不同,它使用两个称为  和  的操作将图像简化为其基本特征,并使用这些特征来理解和分类图像。

CNN重要术语

卷积层

卷积是从输入图像中提取特征的第一层。卷积通过使用输入数据的小方块学习图像特征来保留像素之间的关系。这是一个数学运算,需要两个输入,例如  和  或 。然后图像矩阵的卷积乘以过滤器矩阵,称为 。

使用不同滤波器对图像进行卷积可以通过应用滤波器来执行边缘检测、模糊和锐化等操作。

激活函数

由于卷积是线性操作,图像远非线性,非线性层通常直接放在卷积层之后,以引入  激活图。

有几种类型的非线性操作,流行的是:

: sigmoid 非线性具有数学形式 f(x) = 1 / 1 + exp(-x)。它取一个实数值并将其标准化到 0 到 1 之间的范围内。

: Tanh 将实数值压缩到 [-1, 1] 范围内。

: 线性单元 (ReLU) 计算函数 ƒ(κ)=max (0,κ)。

:Leaky ReLU 函数只不过是 ReLU 函数的改进版本。Leaky ReLU 就是为了解决这个问题而定义的。

:Maxout 激活是 ReLU 和leaky ReLU 函数的泛化。

: 或简称ELU,也是Rectiufied Linear Unit (ReLU)的一种变体。与leaky relu和parametric ReLU函数不同,ELU不是直线,而是使用对数曲线来定义负值。

过滤器 | 核大小 | 过滤器数量

卷积使用a 从输入图像 中提取某些 特征内容。核是一个矩阵,它与输入相乘,从而以某种理想的方式增强输出。

核是一个权重矩阵,它与输入相乘以提取相关特征。核矩阵的维度是卷积的名称。例如,在 中 ,核矩阵是 。

一个普通的卷积层实际上由多个这样的过滤器组成。

步长

在输入矩阵上移动的像素数。当步长为 1 时,我们一次将过滤器移动到 1 个像素。当步长为 2 时,我们一次将过滤器移动到 2 个像素,依此类推。下图显示卷积将以 1 的步长工作。

填充

意味着在数据的边界处提供额外的像素。有时过滤器不能完全适合输入图像,那么我们将使用填充。

我们有两个选择:

用零填充图片(零填充),使其适合

删除过滤器不适合的图像部分。这称为有效填充,它只保留图像的有效部分。

池化层

A  是在卷积层之后添加的新层。具体来说,在对卷积层输出的特征图应用非线性(例如 ReLU)之后;

当图像太大时,池化层部分会减少参数的数量。  也称为  或  减少每个地图的维数但保留重要信息。

空间池可以有不同的类型:

最大池化

平均池化

从校正后的特征图中取最大元素。计算特征图上每个补丁的平均值称为 。特征图调用中每个补丁的所有元素的总和为 .

扁平化和密集层

正在将数据转换为一维数组以将其输入到下一层。我们展平卷积层的输出以创建单个长特征向量。

:传统的多层感知器结构。它的输入是一个一维向量,表示前几层的输出。它的输出是附在图像上的不同可能标签的概率列表(例如狗、猫、鸟)。接收概率最高的标签是分类决策。

下载数据和模型构建

该数据集包含 60,000 张彩色图像有,每个类别有 6,000 张图像。数据集分为 50,000 张训练图像和 10,000 张测试图像。这些类是互斥的,它们之间没有重叠。

X\_train = X\_train/255

X\_test = X\_test/255

X\_train.shape, X\_test.shape验证数据

为了验证数据集看起来是否正确,让我们绘制测试集中的第一张图像并显示图像。

plt.imshow(X_test\[0\])

y_test

构建 CNN 模型

下面的 8 行代码使用一个通用模式定义了卷积基:一堆  、  、 和 层  。

作为输入,a  采用形状 (image\_height, image\_width, color_channels) 的张量。

通过对沿特征轴的每个维度在 (2,2) 定义的窗口上取最大值来对输入表示进行  分层 。

() 用于在训练阶段的每次更新时将隐藏单元的出边随机设置为 0。

用于将数据转换为一维数组,用于输入到下一层。

层是具有 128 个神经元的常规深度连接神经网络层。输出层也是一个密集层,有 10 个神经元用于 10 个类。

使用的激活函数是 。Softmax 将实数向量转换为分类概率向量。输出向量的元素在 (0, 1) 范围内并且总和为 1。

model.add(Flatten())

model.add(Dense(units = 128, activation='relu'))

model.add(Dense(units=10, activation='softmax'))

model.summary()

编译和训练模型

这是  编译模型和  训练数据。我们将使用 10步长  来训练模型。一个时期是对所提供的整个数据的迭代。  是在每个 epoch 结束时 评估和任何模型指标的 数据。模型不会根据这些数据进行训练。由于指标 =  模型将基于 .

history = model.fit(X_train

我们现在将绘制  and  。在模型准确度中,我们将绘制训练准确度和验证准确度,在模型损失中,我们将绘制训练损失和验证损失。

# 绘制训练和验证的准确值

epoch_range = range(1, 11)

plt.plot(epoch\_range, history.history\['sparse\_categorical_accuracy'\])

# 绘制训练和验证的损失值

plt.plot(epoch_range, history.history\['loss'\])

y\_pred = model.predict\_classes(X_test)

confusion_matrix

mat

plot

结论:

在本教程中,我们训练了简单的卷积神经网络 (CNN) 来对 图像进行分类。从学习曲线图中我们观察到,在 3 个 epoch 之后,验证准确度低于训练集准确度,即我们的模型是过拟合,这意味着我们增加了模型的复杂性。还使用混淆矩阵评估模型。观察到该模型对鸟、猫、鹿、狗等标签的预测精度较低。

  • 发表于:
  • 原文链接https://page.om.qq.com/page/O2h8YK51I0jfXGUhLl0TTu5g0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券