前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >【用户经验分享】NVIDIA Jetson TX2开发板运行 jetson-inference 出现问题的终极解决办法

【用户经验分享】NVIDIA Jetson TX2开发板运行 jetson-inference 出现问题的终极解决办法

作者头像
GPUS Lady
发布2018-04-02 14:51:30
3.3K1
发布2018-04-02 14:51:30
举报
文章被收录于专栏:GPUS开发者

之前本公众号发布了一个教程【入门篇】Jetson TX2深度学习Inference初体验,里面提到一个步骤,就是可能会出现错误,提示nvidia.app.box.com链接不上,导致模块下载不下来。关于这个问题,我们没有特别好的解决办法,现在我们的用户小北(昵称)经过自己的尝试,提出了解决办法,分享给各位:


感觉国内的网git clone jetson-inference到 jetson TX2(TX1类似)后,进行cmake后会出一个较大的问题,也许你的网没问题,那就OK,如果网不行,像我这样的,那就真心的坑了。

说说的遇到的情况吧,就是git clone jetson-inference后,执行cmake ../后老是报nvidia.app.box.com连接不上,有的开发者的解决办法是fan墙 ,然后下载,即使能翻出去,也是运气好的情况下才能运行,最后不报错。

之后我在nvidia的英文论坛发帖,恢复的挺及时的,开心,然后,按着那办法就慢慢来,也是没解决,然后,在那官方回复给的github链接上,我问了,一老外,然后,给了回复,给了我很大的启发,哈哈^...^,在此谢谢帮住我的人!

我的分析和解决办法:

问题是:在执行cmake ../ 命令是,需要执行jetson-inference下的CMkeList.txt,而在编译CMkeList.txt时要执行预安装脚本(CMakePreBuild.sh)并自动安装任何依赖项。

而问题就出在这,打开CMakePreBuild.sh后,就能知道里面是网址,是所需要下载的依赖项,(为啥官方不直接把这些依赖项直接放在jetson-inference中呢,因为这些依赖项实在是太大了有1.7个G,开发板的存储就那么大,这些依赖项有的开发者不一定用的到),其实就是因为这些依赖项太大了,又挂在外网上(nvidia.app.box.com,我电脑翻了出去都不能ping到,这着实很操蛋),所以,就容易下载不下来,或者是下载失败,即使成功了,也会是下载特别特别慢,我问的老外的解决办法是,把依赖项挂载在google云盘上,我是从google云盘上下载下来的,不过但是还是不能用,其实后来又花了时间才搞明白,老外挂载在google云盘上的依赖项不全,而我在cmake时,networks里下载了bvlc_alexnet.caffemodel和bvle_googlenet.caffemodel,所以一直没注意这两个文件虽然显示下载成功了,但是是空的,也就是没有下载成功,所以,最后不能用。

上面说的有点乱,可能是这个坑太大了,真心发个牢骚吧。

看这里:解决办法

1、先看此链接: http://www.gpus.cn/qianduan/front/getNewsArc?articleid=139

2、从GitHub上clone 好 jetson-inference后,要打开CMakePreBuild.sh文件,然后分别对应链接下载文件,全部下载好后就放到data文件夹下的networks的文件中,然后注释掉CMakePreBuild.sh文件中已经下载好的命令行

执行cmake../命令和make命令后会很快

其实有的文章介绍中间编译慢,其实那时间是花在下载文件上了。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2017-08-04,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 GPUS开发者 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档