前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >【免费教学】Tensorflow Lite极简入门

【免费教学】Tensorflow Lite极简入门

作者头像
刘盼
发布2018-07-26 15:02:38
1.2K0
发布2018-07-26 15:02:38
举报
文章被收录于专栏:人人都是极客人人都是极客

边缘计算时代离我们越来越近,当前嵌入式设备的智能框架还是 TensorFlow Lite比较成熟,这里我准备用一系列免费课程和大家一起讨论下 TensorFlow Lite在移动设备上的应用,让我们的设备智能起来。

我们先来看下 YouTube 上开通的TensorFlow 视频频道的一段视频:

视频内容

TensorFlow Lite 介绍

TensorFlow Lite 的目标是移动和嵌入式设备,它赋予了这些设备在终端本地运行机器学习模型的能力,从而不再需要向云端服务器发送数据。这样一来,不但节省了网络流量、减少了时间开销,而且还充分帮助用户保护自己的隐私和敏感信息。TensorFlow Lite 目前仍处于“积极开发”状态,目前仅有少量预训练AI模型面世,比如MobileNet、用于计算机视觉物体识别的Inception v3、用于自然语言处理的Smart Reply,当然,TensorFlow Lite上也可以部署用自己的数据集定制化训练的模型。

TensorFlow Lite可以与Android 8.1中发布的神经网络API完美配合,即便在没有硬件加速时也能调用CPU处理,确保模型在不同设备上的运行。

模型相关的文件

模型相关的文件有很多类型,比如:Graph Definition, Checkpoints 以及 Frozen Graph。各种类型的数据都需要使用 Protocol Buffers(简称 ProtoBuff)来定义数据结构,有了这些 ProtoBuff 代码,你就可以使用工具来生成对应的 C 和 Python 或者其它语言的代码,方便装载、保存和使用数据。

ProtoBuff 的相关内容,可以从这个网址得到:

https://developers.google.cn/protocol-buffers/

Graph Def

关于 Graph Def(Graph Definition)文件,有两种格式。拓展名为 .pb 的是二进制 binary 文件;而 .pbtxt 格式的则是更具可读性的文本文件。但是,实际使用中,二进制文件有着相当高的执行效率和内存优势。

Graph Def 是你训练的模型的核心,它定义了 node 的关系结构,方便由其他的进程来读取。比如下面这个 Graph Def 就定义了“矩阵 A 与矩阵 B 相乘得到矩阵 C”的描述。

代码语言:javascript
复制
node {
  name: "a"
  op: "matmul"
}

node {
  name: "b"
  op: "matmul"
  input: "a:0"
}

node {
  name: "c"
  op: "matmul"
  input: "a:0"
  output: "b:0"
}
Checkpoint

Checkpoint 文件是来自 TensorFlow 图的序列化变量。这个文件当中没有图的结构,所以不会被解释。在训练学习的过程中,Checkpoint 文件记录了不同的 Iteration 中变量的取值。

Frozen Graph

用 Graph Def 和 Checkpoint 生成 Frozen Graph 的过程叫做“冷冻”。为什么称之为冷冻呢?我们知道,生成 Frozen Graph 所需要的量都是从 Checkpoint 当中得到的,那么这个变量转为常量的过程就被形象地称之为“冷冻”了。

TensorFlow Lite 模型

TensorFlow Lite 所用的模型是使用 TOCO 工具从 TensorFlow 模型转化而来的,来源就是经过冷冻生成的 Frozen Graph。假如你已经得到了一个“够用”的模型了,而且你也没有源代码或者数据来重新进行训练,那么就使用当前的模型吧,没有任何问题。但如果你有源代码和数据,直接使用 TOCO 工具进行模型转化将会是最好的选择。示例代码如下:

代码语言:javascript
复制
with tf.Session() as sess:
  tflite_model = tf.contrib.lite.toco_convert(sess.graph_def, [img], [out])
  open("converted_model.tflite","wb").write(tflite_model)

TensorFlow Lite 兼容的公开模型

视频中提到的兼容性指南的链接为:

https://github.com/tensorflow/tensorflow/blob/master/tensorflow/contrib/lite/g3doc/tf_ops_compatibility.md

在 TensorFlow Lite 中兼容的模型是 Inception v3 和 MobileNets,Inception v3 主要用于验证 ImageNet 数据集,这是一个被学界广泛认定为图片验证指标的数据集。MobileNets 则是转为移动设备而设计的模型,具有低能耗的特征,但相应的缺点就是准确度不如 Inception v3。

  • 第一部分,如何用 MobileNets 对图像分类:

https://codelabs.tensorflowers.cn/codelabs/tensorflow-for-poets/index.html

  • 第二部分,如何将第一部分生成的模型构建成一个 APK:

https://codelabs.tensorflowers.cn/codelabs/tensorflow-for-poets-2/index.html

现在我们对 TensorFlow Lite 的概念和模型转化有了认识,接下来讲述 TensorFlow Lite 模型文件格式,并可视化以帮助大家记忆理解,也包含 TensorFlow Lite 的具体加载运行过程,并给出关键的数据结构描述,我们先来看段视频:

视频内容

看完视频,我们一起总结回顾一下:

首先,我们需要在PC上设计、训练出目标模型,并将其转化成 TensorFlow Lite 的格式。接着,此格式文件在 TensorFlow Lite 中会被内置了 Neon 指令集的解析器加载到内存,并执行相应的计算。由于 TensorFlow Lite 对硬件加速接口良好的支持,开发者可以设计出性能更优的 App 供用户使用。

我们先来看下关键的数据结构描述:

模型文件格式

Model 结构体:模型的主结构

代码语言:javascript
复制
table Model {
    version: uint;
    operator_codes: [OperatorCode];
    subgraphs: [SubGraph];

    description: string;
    buffers: [Buffer]
}

其中operator_codes 定义了整个模型的所有算子,subgraphs 定义了所有的子图。子图当中,第一个元素是主图。buffers 属性则是数据存储区域,主要存储的是模型的权重信息。

SubGraph 结构体:Model 中最重要的部分

代码语言:javascript
复制
table SubGraph {
    tensors: [Tensor];
    inputs: [int];
    outputs: [int];
    operators: [Operator];

    name: string;
}

tensors 定义了子图的各个 Tensor,inputsoutputs 用索引的维护着子图中 Tensor 与输入输出之间的对应关系。operators 定义了子图当中的算子。

Tensor 结构体:包含维度、数据类型、Buffer 位置等信息

代码语言:javascript
复制
table Tensor {
    shape: [int];
    type: TensorType;
    buffer: uint;

    name: string;
}

buffer 以索引量的形式,给出了这个 Tensor 需要用到子图的哪一个 buffer。

Operator 结构体:SubGraph 中最重要的结构体

代码语言:javascript
复制
table Operator {
    opcode_index: uint;
    inputs: [int];
    outputs: [int];

    ...
}

opcode_index 用索引方式指明该 Operator 对应了哪个算子。 inputsoutputs 则是 Tensor 的索引值,指明该 Operator 的输入输出信息。

解析器概况

那么 TensorFlow Lite 的解析器又是如何工作的呢?

一开始,终端设备会通过 mmap 以内存映射的形式将模型文件载入客户端内存中,其中包含了所有的 Tensor,Operator 和 Buffer 等信息。出于数据使用的需要,TensorFlow Lite 会同时创建 Buffer 的只读区域和分配可写 Buffer 区域。

由于解析器中包含了集体执行计算的代码,这一部分被称为 Kernel。模型中的各个 Tensor 会被加载为 TfLiteTensor 的格式并集中存放在 TfLiteContext 中。

每个 Tensor 的指针都指向了内存中的只读 Buffer 区域或是一开始新分配的可写入 Buffer 区域。

模型中的 Operator 被重新加载为 TfLiteNode,它包含输入输出的 Tensor 索引值。这些 Node 对应的操作符存储于 TfLiteRegistration 中,它包含了指向 Kernel 的函数指针。OpResolver 负责维护函数指针的对应关系。

TensorFlow Lite 加载模型的过程中会确定执行 Node 的顺序,然后依次执行。

大家如果想要更好掌握 TensorFlow Lite 的技术细节,一定要阅读以下文件:

  • lite/context.h
  • lite/model.h
  • lite/interpreter.h
  • lite/kernels/register.h

其他

TensorFlow Lite 的代码位置

https://github.com/tensorflow/tensorflow/tree/master/tensorflow/contrib/lite

模型的模式文件位于:

https://github.com/tensorflow/tensorflow/blob/master/tensorflow/contrib/lite/schema/schema.fbs

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2018-06-17,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 人人都是极客 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • Graph Def
  • Checkpoint
  • Frozen Graph
  • TensorFlow Lite 模型
相关产品与服务
NLP 服务
NLP 服务(Natural Language Process,NLP)深度整合了腾讯内部的 NLP 技术,提供多项智能文本处理和文本生成能力,包括词法分析、相似词召回、词相似度、句子相似度、文本润色、句子纠错、文本补全、句子生成等。满足各行业的文本智能需求。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档