最近,我用Win10操作系统在我的电脑上试用了谷歌的“盗梦空间”图像分类器。基本上,我是在这个教程/手册上完成的。
简单地说,这些步骤是:
我的问题是,我想做同样的事情,但在Hadoop环境中,不幸的是,我不知道该如何做,因为我是Hadoop的新手。我试图谷歌这个话题,但我没有找到任何有帮助的结果。
我的Hadoop集群包含4个带有Hadoop、Hive和Spark的Raspberry Pi。如果我是对的,至少有两种方法可以在Hadoop上完成再培训过程:
按照第一种选择,我认为这些步骤可能是:
(Python预先安装在NOOB上)
第二条路..。我没有头绪
如果有人能给我一些建议,详细的步骤,或者只是告诉我一些方向,我会非常感激的。
发布于 2016-11-16 01:25:50
您需要为HDFS配置您的环境。您还可以使用docker文件:https://github.com/tensorflow/ecosystem/blob/master/docker/Dockerfile.hdfs在docker中运行程序。您可能需要将您的培训计划复制到图像中。
然后,在将数据复制到HDFS之后,只需指定"hdfs://namenode/file/path"
作为模型输入。TensorFlow的gfile模块可以识别HDFS URI。
https://stackoverflow.com/questions/40610958
复制相似问题