用 TensorFlow 创建自己的 Speech Recognizer

参考资料 源码请点:https://github.com/llSourcell/tensorf...

语音识别无处不在,siri,google,讯飞输入法,讯飞语记,智能家居,车,etc。 每天都在用的,很好奇它是怎么实现的,今天来看看这么便利的东东到底是什么样子呢。

进化史

最开始的 speech recognizer 只能识别 0-9 这几个数字,说别的单词是识别不了滴。

后来有一个叫做 DARPA 的梦想家 team 孜孜不倦地研究。

他们用 15000 个节点代表可能的发音,然后用暴力搜索 brute force search 算法来找到节点对应的文字。

后来 IBM 用 Hidden Markov Model 来预测每个点最大概率可能表示的文字。

再后来人们尝试用 NN 神经网络来做这个任务,但是很长时间没太大进展,直到 深度学习之父 Geoffrey Hinton 研究出个 Deep Learning 模型,语音识别的效果显著提高。

Yours ~~

像 Siri,Google 一样,现在我们来看看怎样用 TensorFlow 创建自己的 Speech Recognizer ,来识别数字吧。

Steps:

  • 导入库
  • 定义参数
  • 导入数据
  • 建立模型
  • 训练模型并预测

1. 导入库

需要用到 tflearn,这是建立在 TensorFlow 上的高级的库,可以很方便地建立网络。 还会用到辅助的类 speech_data,用来下载数据并且做一些预处理。

from __future__ import division, print_function, absolute_import
import tflearn
import speech_data
import tensorflow as tf

2. 定义参数

learning rate 是在更新权重的时候用,太高可以很快,但是loss大,太低较准但是很慢。

learning_rate = 0.0001
training_iters = 300000 # steps
batch_size = 64

width = 20 # mfcc features
height = 80 # (max) length of utterance
classes = 10 # digits

3. 导入数据

用 speech_data.mfcc_batch_generator 获取语音数据并处理成批次,然后创建 training 和 testing 数据。

batch = word_batch = speech_data.mfcc_batch_generator(batch_size)
X, Y = next(batch)
trainX, trainY = X, Y
testX, testY = X, Y #overfit for now

4. 建立模型

接下来,用什么模型呢? speech recognition 是个 many to many 的问题。

eg,speech recognition

eg,image classification

eg,image caption

eg,sentiment analysis

所以我们用 Recurrent NN 。

通常的 RNN ,它的输出结果是受整个网络的影响的。

而 LSTM 比 RNN 好的地方是,它能记住并且控制影响的点。所以这里我们用 LSTM。

每一层到底需要多少个神经元是没有规定的,太少了的话预测效果不好,太多了会 overfitting,这里我们取普遍的 128.

为了减轻过拟合的影响,我们用 dropout,它可以随机地关闭一些神经元,这样网络就被迫选择其他路径,进而生成想对 generalized 模型。

接下来建立一个 fully connected 的层,它可以使前一层的所有节点都连接过来,输出 10 类,因为数字是 0-9,激活函数用 softmax,它可以把数字变换成概率。

最后用个 regression 层来输出唯一的类别,用 adam 优化器来使 cross entropy 损失达到最小。

# Network building
net = tflearn.input_data([None, width, height])
net = tflearn.lstm(net, 128, dropout=0.8)
net = tflearn.fully_connected(net, classes, activation='softmax')
net = tflearn.regression(net, optimizer='adam', learning_rate=learning_rate, loss='categorical_crossentropy')

5. 训练模型并预测

然后用 tflearn.DNN 函数来初始化一下模型,接下来就可以训练并预测,最后再保存训练好的模型。

# Training
### add this "fix" for tensorflow version errors
col = tf.get_collection(tf.GraphKeys.TRAINABLE_VARIABLES)
for x in col:
  tf.add_to_collection(tf.GraphKeys.VARIABLES, x )

model = tflearn.DNN(net, tensorboard_verbose=0)

while 1: #training_iters
  model.fit(trainX, trainY, n_epoch=10, validation_set=(testX, testY), show_metric=True,
          batch_size=batch_size)
  _y=model.predict(X)
model.save("tflearn.lstm.model")
print (_y)
print (y)

模型训练需要一段时间,一边碎觉一边等着模型出炉吧。

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏杨熹的专栏

用 TensorFlow 创建自己的 Speech Recognizer

参考资料 源码请点:https://github.com/llSourcell/tensorf... ---- 语音识别无处不在,siri,google,讯飞...

3215
来自专栏数据派THU

教你用Python解决非平衡数据问题(附代码)

本文为你分享数据挖掘中常见的非平衡数据的处理,内容涉及到非平衡数据的解决方案和原理,以及如何使用Python这个强大的工具实现平衡的转换。

1062
来自专栏专知

【前沿】Geoffery Hinton 的 NIPS2017 Capsule论文简读

10月26日,深度学习元老Hinton的NIPS2017 Capsule论文《Dynamic Routing Between Capsules》终于在arxiv...

2573
来自专栏PaddlePaddle

技术|深度学习技术黑话合辑

1192
来自专栏机器之心

预训练BERT,官方代码发布前他们是这样用TensorFlow解决的

本文介绍的两个 BERT 实现项目分别基于 TensorFlow 和 Keras,其中基于 TensorFlow 的项目会使用中等数据集与其它技巧降低计算力,并...

1512
来自专栏机器之心

教程 | 如何通过距离度量学习解决Street-to-Shop问题

3728
来自专栏计算机视觉战队

CVPR—II | 经典网络再现,全内容跟踪

今天首先给大家带来“YOLO”!也被上一篇“Faith”读者说对了,在此也感谢大家的关注与阅读,O(∩_∩)O谢谢 YOLO ? 看到这个封面,相信很多很多...

3625
来自专栏机器之心

学界 | 清华等机构提出基于内部一致性的行人检索方法,实现当前最优

行人检索又叫行人重识别(person re-identification,re-ID),即基于给定行人,从大型数据库中检索特定相关人行道的图像。目前,深度学习方...

1150
来自专栏机器学习算法与Python学习

SVM大解密(附代码和公式)

2075
来自专栏机器学习之旅

应用:多算法识别撞库刷券等异常用户

在运营业务中,绝大多数公司会面临恶意注册,恶意刷接口,恶意刷券等流量问题,此类问题的常规解决方案都是拍定单位时间内的ip访问上限次数、qps上限次数等等,会存在...

1272

扫码关注云+社区

领取腾讯云代金券