前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >MXNet Scala 学习笔记 二 ---- 创建新的 Operator

MXNet Scala 学习笔记 二 ---- 创建新的 Operator

作者头像
Ldpe2G
发布2018-07-06 17:16:36
5500
发布2018-07-06 17:16:36
举报

MXNet Scala包中创建新的操作子

用现有操作子组合

    在MXNet中创建新的操作子有多种方式。第一种最简单的方法就是在前端(比如Python、Scala) 采用现有的操作子来组合,比如实现 Selu  激活函数。简单示例代码如下:

代码语言:javascript
复制
def selu(x: Symbol): Symbol = {
  val alpha = 1.6732632423543772848170429916717f
  val scale = 1.0507009873554804934193349852946f
  val condition = x >= 0f
  val y = Symbol.LeakyReLU()()(Map("data" -> x, "act_type" -> "elu", "slope" -> alpha))
  scale * Symbol.where()()(Map("condition" -> condition, "x" -> x, "y" -> y))
}

更详细的代码可参考:SelfNormNets。    或者实现L1损失函数,L1_Loss

代码语言:javascript
复制
def getAbsLoss(): Symbol = {
  val origin = Symbol.Variable("origin")
  val rec = Symbol.Variable("rec")
  val diff = origin - rec
  val abs = Symbol.abs()()(Map("data" -> diff))
  val mean = Symbol.mean()()(Map("data" -> abs))
  Symbol.MakeLoss()()(Map("data" -> mean))
}

这种方式比较简单,而且如果你对现有的操作子基本熟悉的话,那么一般的需求基本都能满足。

CustomOp接口

   第二种是相对难度大一点的,比较接近第三种,有时候可能单纯的操作子组合满足不了需求,那就可以

采用继承CustomOp接口的方式,下面举Softmax的例子来解说:

代码语言:javascript
复制
class Softmax(_param: Map[String, String]) extends CustomOp {

  override def forward(sTrain: Boolean, req: Array[String],
    inData: Array[NDArray], outData: Array[NDArray], aux: Array[NDArray]): Unit = {
    val xShape = inData(0).shape
    val x = inData(0).toArray.grouped(xShape(1)).toArray
    val yArr = x.map { it =>
      val max = it.max
      val tmp = it.map(e => Math.exp(e.toDouble - max).toFloat)
      val sum = tmp.sum
      tmp.map(_ / sum)
    }.flatten
    val y = NDArray.empty(xShape, outData(0).context)
    y.set(yArr)
    this.assign(outData(0), req(0), y)
    y.dispose()
  }

  override def backward(req: Array[String], outGrad: Array[NDArray],
    inData: Array[NDArray], outData: Array[NDArray],
    inGrad: Array[NDArray], aux: Array[NDArray]): Unit = {
    val l = inData(1).toArray.map(_.toInt)
    val oShape = outData(0).shape
    val yArr = outData(0).toArray.grouped(oShape(1)).toArray
    l.indices.foreach { i =>
      yArr(i)(l(i)) -= 1.0f
    }
    val y = NDArray.empty(oShape, inGrad(0).context)
    y.set(yArr.flatten)
    this.assign(inGrad(0), req(0), y)
    y.dispose()
  }
}

    首先继承CustomOp抽象类,然后实现forward和backward函数,构造函数参数"_param"可以

当做是能够提取用户在构造Symbol时传入的参数具体例子可以参考CustomOpWithRtc

forward和backward的具体实现大家看源码就清楚了,变量名也很清晰,就是softmax的简化版。

需要注意的是,在算出结果之后,比如forward的y和backward的y之后,这时候需要调用内置的

assign函数把结果赋值给相应的outData或者inGrad。这里的req有几种"write"、"add"、"inplace"和

"null":

代码语言:javascript
复制
def assign(dst: NDArray, req: String, src: NDArray): Unit = req match {
  case "write" | "inplace" => dst.set(src)
  case "add" => dst += src
  case "null" => {}
}

在赋值完之后,因为y是临时申请的NDArray,所以在函数返回前需要调用dispose函数释放内存。

这是在使用Scala包的时候需要注意的地方。而inData数组里面的NDArray对应数据和标签的顺序

是接下来要说的。

    实现好CustomOp之后,需要再继承CustomOpProp抽象类,主要是定义自定义操作子的一些

比如输入输出的格式和相关信息等等。

代码语言:javascript
复制
class SoftmaxProp(needTopGrad: Boolean = false)
 extends CustomOpProp(needTopGrad) {

  override def listArguments(): Array[String] = Array("data", "label")

  override def listOutputs(): Array[String] = Array("output")

  override def inferShape(inShape: Array[Shape]):
    (Array[Shape], Array[Shape], Array[Shape]) = {
    val dataShape = inShape(0)
    val labelShape = Shape(dataShape(0))
    val outputShape = dataShape
    (Array(dataShape, labelShape), Array(outputShape), null)
  }

  override def inferType(inType: Array[DType]):
    (Array[DType], Array[DType], Array[DType]) = {
    (inType, inType.take(1), null)
  }

  override def createOperator(ctx: String, inShapes: Array[Array[Int]],
    inDtypes: Array[Int]): CustomOp = new Softmax(this.kwargs)
}

Operator.register("softmax", new SoftmaxProp)


//定义网络构造
val data = Symbol.Variable("data")
val label = Symbol.Variable("label")
val fc1 = Symbol.FullyConnected("fc1")()(Map("data" -> data, "num_hidden" -> 128))
val act1 = Symbol.Activation("relu1")()(Map("data" -> fc1, "act_type" -> "relu"))
val fc2 = Symbol.FullyConnected("fc2")()(Map("data" -> act1, "num_hidden" -> 64))
val act2 = Symbol.Activation("relu2")()(Map("data" -> fc2, "act_type" -> "relu"))
val fc3 = Symbol.FullyConnected("fc3")()(Map("data" -> act2, "num_hidden" -> 10))
val mlp = Symbol.Custom("softmax")()(Map("data" -> fc3, "label" -> label, "op_type" -> "softmax"))

needTopGrad参数表示在backward的时候是否需要来自顶层的梯度,因为softmax是损失层,

一般放在网络最后,所以是不需要顶层的梯度,所以这里默认为false。然后listArguments函数

和listOutputs函数是定义该层操作子的输入与输出。这里listArugments的顺序与forward中的inData

顺序对应,同时listArugments还可以定义该层的输入还可以定义该层的参数,比如卷积层需要权值,

也需要在这里定义。inferShape就是根据输入的形状来推导网络的输出与参数形状,这些需要自己实现。

inferType的实现是可选的,支持多种数据类型DType。最后再实现createOperator函数,kwargs成员

变量存储了用户在构造Symbol时传入的参数,比如上面代码定义网络构造的代码,最后通过调用

Symbol.Custom函数然后根据你注册的操作子的名称就是"op_type"参数找到你自己实现的操作子。

用户还可以传任意的自定义参数,string->string,具体例子可以参考CenterLossCustomOpWithRtc

CustomOp使用注意事项

在使用CustomOp创建操作子的时候需要注意的是,因为这种方式实现的操作子不是用已有的

操作子组合,而是用前端自己实现的,所以在保存训练模型的时候,尽管保存的模型定义的json文件

中会包含你的操作子,但是这个保存的模型直接给其他的用户是用不了的,因为在载入的时候会

报错,找不到你自己定义操作子,你需要把源码也给其他人,这是需要注意的地方。

而对Scala包的CustomOp内部实现感兴趣的读者可以去看看源码:CustomOp实现源码

JNI部分源码。对于实现CustomOp这个功能,可以说是我参与MXNet项目以来提交的所有的pr中

难度最大之一了,因为对JNI不是很熟,还记得当时是一边google一边debug弄了差不多两周才

搞好这个功能。不过这个过程中也算是学到了不少东西。

C++

最后一种就是采用C++来实现了,也是难度最大的,其实CustomOp是这种方式的简化版,

CustomOp其实在后端也对应也有C++的实现,相当于在后端有一个CustomOp来调用

前端定义的CustomOp,具体源码:

https://github.com/apache/incubator-mxnet/tree/master/src/operator/custom

而Scala包Symbol类的操作子定义是采用macro的方式生成的,自动与C++这边同步,所以

只要你按照文档在C++端定义好新的操作子,那么在Scala包这边就能用。

怎么用C++自动以新的操作子这里就不详细展开了具体可以参考文档源码

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • MXNet Scala包中创建新的操作子
    • 用现有操作子组合
      • CustomOp接口
        • CustomOp使用注意事项
      • C++
      领券
      问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档