用 keras 建立超简单的汉字识别模型

更多腾讯海量技术文章,请关注云加社区:https://cloud.tencent.com/developer

作者:陈佐琪

之前看过很多 mnist 的识别模型,都是识别数字的,为啥不做一个汉字识别模型呢?因为汉字手写的库找不到啊。当时我还想自己从字库生成汉字用作识别(已经做出来了,导出字体图片再识别之)。

后来看了这篇文章和这篇文章 : CASIA-HWDB 这个神奇的东西。原文是用 tensorflow 实现的,比较复杂,现在改成用 keras 去完成。

数据集下载

$ wget http://www.nlpr.ia.ac.cn/databases/download/feature_data/HWDB1.1trn_gnt.zip

# zip 解压没得说, 之后还要解压 alz 压缩文件

$ wget http://www.nlpr.ia.ac.cn/databases/download/feature_data/HWDB1.1tst_gnt.zip

正好用新学的 keras 来尝试建模识别。

首先要将下载来的 gnt 文件解压。这部分我完全不懂,图像处理部分直接使用他们的代码了。

其中 3500.txt 是常用的 3500 个汉字,这个我用来跟另外一个根据字体生成汉字的脚本配合使用。

解压完会生成一个 train 和一个 test 的文件夹,里面分别用数字为文件夹名,里面都是一些别人手写的汉字的图片。

如果用 tensorflow 写的话,大概需要 300 行,需要处理图像(当然 tf 也会帮你处理大部分繁琐的操作),需要写批量加载,还有各种东西。

到了 keras,十分简单。总共的代码就 70 多行,连图像加载和偏移处理都是智能的。图片转换都给你包办了,简直贴心。

可以看到生成模型的代码就 12 行,十分简洁。开头两套双卷积池化层,后面接一个 dropout 防过拟合,再接两个全链接层,最后一个 softmax 输出结果。

于是开我的 GTX1080 机器开跑,大约花了半天时间。

Epoch 20000/20000

1024/2000 [==============>...............] - ETA: 0s - loss: 0.2178 - acc: 0.9482

2048/2000 [==============================] - 2s - loss: 0.2118 - acc: 0.9478 - val_loss: 0.4246 - val_acc: 0.9102

在 20000 次 Epoch 后,准确率在 95%,验证的准确率在 91%左右,基本可以识别大部分库里的汉字了。

实际看来汉字识别是图像识别的一种,不过汉字数量比较多,很多手写的连人类都无法识别,估计难以达到 mnist 数据集的准确率。

最后可以看到,keras 是非常适合新手阶段去尝试的,代码也十分简洁。不过由于底层隐藏的比较深,如果深入研究的话容易会遇到瓶颈,而且包装太多,想对他做出修改优化也不是太容易。后期研究还是建议使用 tensorflow 和 pytorch。(个人在看 pytorch,比 tensorflow 要简洁不少,而且大部分 paper 都移植过去了,github 最近热门全是他,潜力无限)

  • 发表于:
  • 原文链接:http://kuaibao.qq.com/s/20180110A06LFF00?refer=cp_1026
  • 腾讯「云+社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。

扫码关注云+社区

领取腾讯云代金券