首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >毕业设计之「测试实验及结果分析」(二)

毕业设计之「测试实验及结果分析」(二)

作者头像
石璞东
发布2020-07-14 16:59:53
5750
发布2020-07-14 16:59:53
举报
文章被收录于专栏:石璞东 | haha石璞东 | haha

阅读本文大概需要 8 分钟。

基于AlexNet完成五种花的训练和识别

花分类数据集获取及项目简介

在本例中,我们将使用通过Python爬虫技术获取的不具备版权的3762张样本图片,包括5个类别:其中daisy(菊花)633张,dandelion(蒲公英)898张,roses(玫瑰)641张,sunflowers(太阳花)699张,tulips(郁金香)799张;

  1. 训练集图片共3306张,同样也是5种类别,其中daisy(菊花)570张,dandelion(蒲公英)809张,roses(玫瑰)577张,sunflowers(太阳花)630张,tulips(郁金香)720张;
  2. 测试集图片共364张,也是5种类别,其中daisy(菊花)53张,dandelion(蒲公英)89张,roses(玫瑰)64张,sunflowers(太阳花)69张,tulips(郁金香)79张;

有了数据集之后,我们将搭建AlexNet卷积神经网络,通过对图片的训练,来完成对要识别图片的判断,要注意的一点,因为此项目中样本集中图片总量较小,所以相比第一个例子,识别率可能会有所下降。

代码及最终效果展示

接下来,我们给出本案例的核心代码,即AlexNet网络模型搭建的核心代码:

from TensorFlow.keras import layers, models, Model, Sequential
def flower_AlexNet(im_height=224, im_width=224, class_num=1000):
    input_image = layers.Input(shape=(im_height, im_width, 3), dtype="float32")  # output(None, 224, 224, 3)
    x = layers.ZeroPadding2D(((1, 2), (1, 2)))(input_image)                      # output(None, 227, 227, 3)
    x = layers.Conv2D(48, kernel_size=11, strides=4, activation="relu")(x)       # output(None, 55, 55, 48)
    x = layers.MaxPool2D(pool_size=3, strides=2)(x)                              # output(None, 27, 27, 48)
    x = layers.Conv2D(128, kernel_size=5, padding="same", activation="relu")(x)  # output(None, 27, 27, 128)
    x = layers.MaxPool2D(pool_size=3, strides=2)(x)                              # output(None, 13, 13, 128)
    x = layers.Conv2D(192, kernel_size=3, padding="same", activation="relu")(x)  # output(None, 13, 13, 192)
    x = layers.Conv2D(192, kernel_size=3, padding="same", activation="relu")(x)  # output(None, 13, 13, 192)
    x = layers.Conv2D(128, kernel_size=3, padding="same", activation="relu")(x)  # output(None, 13, 13, 128)
    x = layers.MaxPool2D(pool_size=3, strides=2)(x)                              # output(None, 6, 6, 128)
    x = layers.Flatten()(x)                         # output(None, 6*6*128)
    x = layers.Dropout(0.2)(x)
    x = layers.Dense(2048, activation="relu")(x)    # output(None, 2048)
    x = layers.Dropout(0.2)(x)
    x = layers.Dense(2048, activation="relu")(x)    # output(None, 2048)
    x = layers.Dense(class_num)(x)                  # output(None, 5)
    predict = layers.Softmax()(x)
    model = models.Model(inputs=input_image, outputs=predict)
    return model

为了更好的观察训练集和测试集损失值、精度的拟合曲线,我们通过如下代码将其绘制出来:

# plot loss and accuracy image
history_dict = history.history
train_loss = history_dict["loss"]
train_accuracy = history_dict["accuracy"]
val_loss = history_dict["val_loss"]
val_accuracy = history_dict["val_accuracy"]

# figure 1
plt.figure()
plt.plot(range(epochs), train_loss, label='train_loss')
plt.plot(range(epochs), val_loss, label='val_loss')
plt.legend()
plt.xlabel('epochs')
plt.ylabel('loss')

# figure 2
plt.figure()
plt.plot(range(epochs), train_accuracy, label='train_accuracy')
plt.plot(range(epochs), val_accuracy, label='val_accuracy')
plt.legend()
plt.xlabel('epochs')
plt.ylabel('accuracy')
plt.show()

绘制出的结果如下所示:

图 1.1 loss曲线

图 1.2 accuracy曲线

图 1.3 玫瑰花识别效果图

写在最后

关于花分类识别的相关代码

需要注意的一点,我的毕设中关于花分类识别的代码是基于TensorFlow 1.x 版本的,代码略显冗长、规范程度也有待提高,因此在花分类识别的案例中只给出核心部分的代码,小伙伴们可以自己补齐其他代码或者私信找我,我私发给你。

关于花分类识别案例的拓展

为了丰富本论文的项目成果,同时也为了体验华为云AI开发平台的魅力,在毕业设计(基于Tensorflow的深度研究与实现)之番外篇中我们借助华为云AI开发平台ModelArts对训练集中的数据进行数据标注模型训练并最终部署测试(注:此部分不用编写任何代码,只需要会鼠标操作即可)。

小伙伴们学会上述的操作了吗,快去实现一下吧!

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2020-07-13,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 hahaCoder 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 花分类数据集获取及项目简介
  • 代码及最终效果展示
  • 关于花分类识别的相关代码
  • 关于花分类识别案例的拓展
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档