前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >开发 | 百度开源移动端深度学习框架MDL,可在苹果安卓系统自由切换

开发 | 百度开源移动端深度学习框架MDL,可在苹果安卓系统自由切换

作者头像
AI科技评论
发布2018-03-14 10:36:55
6310
发布2018-03-14 10:36:55
举报
文章被收录于专栏:AI科技评论AI科技评论

AI科技评论消息,日前,百度在 GitHub 上开源了移动端深度学习框架 mobile-deep-learning(MDL)的全部代码以及脚本,这项研究旨在让卷积神经网络(CNNC)能更简单和高速的部署在移动端,支持iOS GPU,目前已经在百度APP上有所使用。

大小:340k+(在arm v7上)

速度:对于 iOS Metal GPU Mobilenet,速度是40ms,对于 Squeezenet,速度是30ms

展示案例

如果想先运行demo或快速使用这个框架,你可以扫下面的二维码安装编译好的apk/ipa文件,不用知道详细的安装细节。

iOS-MobileNet:

Android-Googlenet:

想要了解源码实现可以继续往下看,源码位于examples文件夹里。

执行样例

1、复制项目代码

2、安装apk\ipa文件,或导入到IDE

3、运行

前期准备

  • android端安装NDK
  • 安装Cmake
  • Android端 NDK CMake 文件地址:https://developer.android.google.cn/ndk/guides/cmake.html
  • 安装 Protocol Buffers

使用MDL lib步骤

在OSX或Linux上测试:

# mac or linux: ./build.sh mac cd build/release/x86/build ./mdlTest

使用MDL lib

#android Copy so file to your project. According to the example of writing your code.

#ios The example code is your code.

多线程执行

# After a Net instance in MDL is created, you could set its thread numbers for execution like this. net->set_thread_num(3); # Now MDL is tuned to run in 3 parallel threads.

开发

在android端编译MDL资源

# android: # prerequisite: install ndk from google ./build.sh android cd build/release/armv-v7a/build ./deploy_android.sh adb shell cd /data/local/tmp ./mdlTest

在iOS端编译MDL资源

# ios: # prerequisite: install xcode from apple ./build.sh ios copy ./build/release/ios/build/libmdl-static.a to your iOS project

把caffemodel转换成mdl格式

#Convert model.prototxt and model.caffemodel to model.min.json and data.min.bin that mdl use ./build.sh mac cd ./build/release/x86/tools/build # copy your model.prototxt and model.caffemodel to this path # also need the input data ./caffe2mdl model.prototxt model.caffemodel data # after this command, model.min.json data.min.bin will be created in current # some difference step you need to do if you convert caffe model to iOS GPU format # see this: open iOS/convert/iOSConvertREADME.md

特征

  • 一键部署,可以通过修改参数在iOS和android端之间转换
  • iOS GPU上支持运行 MobileNet和Squeezenet模型
  • 在MobileNet、GoogLeNet v1和Squeezenet模型下都很稳定
  • 占用空间极小(4M),不需要依赖第三方的库
  • 支持从32比特float到8比特unit转化
  • 接下来会与与ARM相关的算法团队进行线上线下沟通,优化ARM平台
  • NEON使用涵盖了所有的卷积、归一化、池化等
  • 利用循环展开,可以让性能更加优化,防止不必要的CPU损失
  • 对于overhead进程,可以转发大量繁重的计算任务

项目地址:https://github.com/baidu/mobile-deep-learning

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2017-09-25,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 AI科技评论 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档